将Pytorch模型从CPU转换成GPU的实现方法
作者:Chance_Chan 发布时间:2023-07-07 00:11:00
最近将Pytorch程序迁移到GPU上去的一些工作和思考
环境:Ubuntu 16.04.3
Python版本:3.5.2
Pytorch版本:0.4.0
0. 序言
大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。
最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。
看到网上总体来说少了很多介绍,这里决定将我的一些思考和工作记录下来。
1. 如何进行迁移
由于我使用的是Pytorch写的模型,网上给出了一个非常简单的转换方式: 对模型和相应的数据进行.cuda()处理。通过这种方式,我们就可以将内存中的数据复制到GPU的显存中去。从而可以通过GPU来进行运算了。
网上说的非常简单,但是实际使用过程中还是遇到了一些疑惑。下面分数据和模型两方面的迁移来进行说明介绍。
1.1 判定使用GPU
下载了对应的GPU版本的Pytorch之后,要确保GPU是可以进行使用的,通过torch.cuda.is_available()的返回值来进行判断。返回True则具有能够使用的GPU。
通过torch.cuda.device_count()可以获得能够使用的GPU数量。其他就不多赘述了。
常常通过如下判定来写可以跑在GPU和CPU上的通用模型:
if torch.cuda.is_available():
ten1 = ten1.cuda()
MyModel = MyModel.cuda()
2. 对应数据的迁移
数据方面常用的主要是两种 —— Tensor和Variable。实际上这两种类型是同一个东西,因为Variable实际上只是一个容器,这里先视其不同。
2.1 将Tensor迁移到显存中去
不论是什么类型的Tensor(FloatTensor或者是LongTensor等等),一律直接使用方法.cuda()即可。
例如:
ten1 = torch.FloatTensor(2)
>>>> 6.1101e+24
4.5659e-41
[torch.FloatTensor of size 2]
ten1_cuda = ten1.cuda()
>>>> 6.1101e+24
4.5659e-41
[torch.cuda.FloatTensor of size 2 (GPU 0)]
其数据类型会由torch.FloatTensor变为torch.cuda.FloatTensor (GPU 0)这样代表这个数据现在存储在
GPU 0的显存中了。
如果要将显存中的数据复制到内存中,则对cuda数据类型使用.cpu()方法即可。
2.2 将Variable迁移到显存中去
在模型中,我们最常使用的是Variable这个容器来装载使用数据。主要是由于Variable可以进行反向传播来进行自动求导。
同样地,要将Variable迁移到显存中,同样只需要使用.cuda()即可实现。
这里有一个小疑问,对Variable直接使用.cuda和对Tensor进行.cuda然后再放置到Variable中结果是否一致呢。答案是肯定的。
ten1 = torch.FloatTensor(2)
>>> 6.1101e+24
4.5659e-41
[torch.FloatTensor of size 2]
ten1_cuda = ten1.cuda()
>>>> 6.1101e+24
4.5659e-41
[torch.cuda.FloatTensor of size 2 (GPU 0)]
V1_cpu = autograd.Variable(ten1)
>>>> Variable containing:
6.1101e+24
4.5659e-41
[torch.FloatTensor of size 2]
V2 = autograd.Variable(ten1_cuda)
>>>> Variable containing:
6.1101e+24
4.5659e-41
[torch.cuda.FloatTensor of size 2 (GPU 0)]
V1 = V1_cpu.cuda()
>>>> Variable containing:
6.1101e+24
4.5659e-41
[torch.cuda.FloatTensor of size 2 (GPU 0)]
最终我们能发现他们都能够达到相同的目的,但是他们完全一样了吗?我们使用V1 is V2发现,结果是否定的。
对于V1,我们是直接对Variable进行操作的,这样子V1的.grad_fn中会记录下创建的方式。因此这二者并不是完全相同的。
2.3 数据迁移小结
.cuda()操作默认使用GPU 0也就是第一张显卡来进行操作。当我们想要存储在其他显卡中时可以使用.cuda(<显卡号数>)来将数据存储在指定的显卡中。还有很多种方式,具体参考官方文档。
对于不同存储位置的变量,我们是不可以对他们直接进行计算的。存储在不同位置中的数据是不可以直接进行交互计算的。
换句话说也就是上面例子中的torch.FloatTensor是不可以直接与torch.cuda.FloatTensor进行基本运算的。位于不同GPU显存上的数据也是不能直接进行计算的。
对于Variable,其实就仅仅是一种能够记录操作信息并且能够自动求导的容器,实际上的关键信息并不在Variable本身,而更应该侧重于Variable中存储的data。
3. 模型迁移
模型的迁移这里指的是torch.nn下面的一些网络模型以及自己创建的模型迁移到GPU上去。
上面讲了使用.cuda()即可将数据从内存中移植到显存中去。
对于模型来说,也是同样的方式,我们使用.cuda来将网络放到显存上去。
3.1 torch.nn下的基本模型迁移
这里使用基本的单层感知机来进行举例(线性模型)。
data1 = torch.FloatTensor(2)
data2 = data1.cuda
# 创建一个输入维度为2,输出维度为2的单层神经网络
linear = torch.nn.Linear(2, 2)
>>>> Linear(in_features=2, out_features=2)
linear_cuda = linear.cuda()
>>>> Linear(in_features=2, out_features=2)
我们很惊奇地发现对于模型来说,不像数据那样使用了.cuda()之后会改变其的数据类型。模型看起来没有任何的变化。
但是他真的没有改变吗。
我们将data1投入linear_cuda中去可以发现,系统会报错,而将.cuda之后的data2投入linear_cuda才能正常工作。并且输出的也是具有cuda的数据类型。
那是怎么一回事呢?
这是因为这些所谓的模型,其实也就是对输入参数做了一些基本的矩阵运算。所以我们对模型.cuda()实际上也相当于将模型使用到的参数存储到了显存上去。
对于上面的例子,我们可以通过观察参数来发现区别所在。
linear.weight
>>>> Parameter containing:
-0.6847 0.2149
-0.5473 0.6863
[torch.FloatTensor of size 2x2]
linear_cuda.weight
>>>> Parameter containing:
-0.6847 0.2149
-0.5473 0.6863
[torch.cuda.FloatTensor of size 2x2 (GPU 0)]
3.2 自己模型的迁移
对于自己创建的模型类,由于继承了torch.nn.Module,则可同样使用.cuda()来将模型中用到的所有参数都存储到显存中去。
这里笔者曾经有一个疑问:当我们对模型存储到显存中去之后,那么这个模型中的方法后面所创建出来的Tensor是不是都会默认变成cuda的数据类型。答案是否定的。具体操作留给读者自己去实现。
3.3 模型小结
对于模型而言,我们可以将其看做是一种类似于Variable的容器。我们对它进行.cuda()处理,是将其中的参数放到显存上去(因为实际使用的时候也是通过这些参数做运算)。
4. 总结
Pytorch使用起来直接简单,GPU的使用也是简单明了。然而对于多GPU和CPU的协同使用则还是有待提高。
来源:https://blog.csdn.net/qq_28444159/article/details/78781201


猜你喜欢
- spring boot 测试单元修改数据库不成功spring boot 集成data jpa 在test区测试数据库操作的时候,查询正常,但
- 相关的题外话:一、操作系统window系统内部都是unicode的。文件夹名,文件名等都是unicode的,任何语言系统下都能正常显示。二、
- RPCHandler 和 R * roxy 的基本思路是很比较简单的。 如果一个客户端想要调用一个远程函数,比如 foo(1, 2, z=3
- 一、引用计数基础知识每个php变量存在一个叫 zval 的变量容器中。一个 zval 变量容器,除了包含变量的类型和值,还包括两个字节的额外
- python 生成 exe 文件的方法:首先安装 pyinstaller,代码为【pip install pyinstaller】;然后使用
- 在认证框架中还有其他的一些功能。 我们会在接下来的几个部分中进一步地了解它们。权限权限可以很方便地标识用户和用户组可以执行的操作。 它们被D
- 在vue项目中, mock数据可以使用 node 的 express模块搭建服务1. 在根目录下创建 test 目录, 用来存放模拟的 js
- 数据驱动数据的改变从而驱动自动化测试用例的执行,最终引起测试结果的改变。简单说就是参数化的应用。测试驱动在自动化测试中的应用场景:测试步骤的
- 前言说到幻影坦克,我就想起红色警戒里的……幻影坦克(Mirage Tank),《红色警戒2》以及《尤里的复仇》中盟军的一款伪装坦克,盟军王牌
- 1、Motivation:I wanna modify the value of some param;I wanna check the
- 揭秘一个普通的输入框背后惊人的秘密。某月某日,某项目某页面,需要一个价格区间筛选功能,需求合理,所以设计做上去。这是一个无比普通的输入框。在
- USE NBDXMIS CREATE proc TestTimeAnySentence @sql_where varchar(8000) a
- 本文实例讲述了Python使用wget实现下载网络文件功能。分享给大家供大家参考,具体如下:wget是一个从网络上自动下载文件的自由工具。它
- 所谓产品其实最终展现在用户面前的只是界面而已,所谓界面绝大多数时候只包括两个部分:图片、文字。重视界面上的每一个像素和每一个文字是UED的基
- 背景最近在需求中有一个这样的场景:需要在页面关闭的时候,用户不需要操作,主动关闭当前订单当时考虑的方案:在页面关闭的时候,向后端发送一个请求
- 同样是做表格,但是有些人的表格就做的很好看。融合了之前所学不同模块的知识,来讲讲Django中生成表格的特殊方法。这里只是mark一下导出的
- 不知不觉大半年没更新了...前面小二介绍过使用Typora+MinIO+Java代码打造舒适写作环境,然后有很多大佬啊,说用Java来实现简
- 本文实例讲述了Python线性方程组求解运算。分享给大家供大家参考,具体如下:求解线性方程组比较简单,只需要用到一个函数(scipy.lin
- 二分类或分类问题,网络输出为二维矩阵:批次x几分类,最大的为当前分类,标签为one-hot型的二维矩阵:批次x几分类计算百分比有numpy和
- 一、什么是"非构造函数"的继承?比如,现在有一个对象,叫做"中国人"。var Chinese = {