Pytorch实现神经网络的分类方式
作者:attitude_yu 发布时间:2021-02-26 05:20:47
标签:Pytorch,神经网络,分类
本文用于利用Pytorch实现神经网络的分类!!!
1.训练神经网络分类模型
import torch
from torch.autograd import Variable
import matplotlib.pyplot as plt
import torch.nn.functional as F
import torch.utils.data as Data
torch.manual_seed(1)#设置随机种子,使得每次生成的随机数是确定的
BATCH_SIZE = 5#设置batch size
#1.制作两类数据
n_data = torch.ones( 1000,2 )
x0 = torch.normal( 1.5*n_data, 1 )#均值为2 标准差为1
y0 = torch.zeros( 1000 )
x1 = torch.normal( -1.5*n_data,1 )#均值为-2 标准差为1
y1 = torch.ones( 1000 )
print("数据集维度:",x0.size(),y0.size())
#合并训练数据集,并转化数据类型为浮点型或整型
x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor )
y = torch.cat( (y0,y1) ).type( torch.LongTensor )
print( "合并后的数据集维度:",x.data.size(), y.data.size() )
#当不使用batch size训练数据时,将Tensor放入Variable中
# x,y = Variable(x), Variable(y)
#绘制训练数据
# plt.scatter( x.data.numpy()[:,0], x.data.numpy()[:,1], c=y.data.numpy())
# plt.show()
#当使用batch size训练数据时,首先将tensor转化为Dataset格式
torch_dataset = Data.TensorDataset(x, y)
#将dataset放入DataLoader中
loader = Data.DataLoader(
dataset=torch_dataset,
batch_size = BATCH_SIZE,#设置batch size
shuffle=True,#打乱数据
num_workers=2#多线程读取数据
)
#2.前向传播过程
class Net(torch.nn.Module):#继承基类Module的属性和方法
def __init__(self, input, hidden, output):
super(Net, self).__init__()#继承__init__功能
self.hidden = torch.nn.Linear(input, hidden)#隐层的线性输出
self.out = torch.nn.Linear(hidden, output)#输出层线性输出
def forward(self, x):
x = F.relu(self.hidden(x))
x = self.out(x)
return x
# 训练模型的同时保存网络模型参数
def save():
#3.利用自定义的前向传播过程设计网络,设置各层神经元数量
# net = Net(input=2, hidden=10, output=2)
# print("神经网络结构:",net)
#3.快速搭建神经网络模型
net = torch.nn.Sequential(
torch.nn.Linear(2,10),#指定输入层和隐层结点,获得隐层线性输出
torch.nn.ReLU(),#隐层非线性化
torch.nn.Linear(10,2)#指定隐层和输出层结点,获得输出层线性输出
)
#4.设置优化算法、学习率
# optimizer = torch.optim.SGD( net.parameters(), lr=0.2 )
# optimizer = torch.optim.SGD( net.parameters(), lr=0.2, momentum=0.8 )
# optimizer = torch.optim.RMSprop( net.parameters(), lr=0.2, alpha=0.9 )
optimizer = torch.optim.Adam( net.parameters(), lr=0.2, betas=(0.9,0.99) )
#5.设置损失函数
loss_func = torch.nn.CrossEntropyLoss()
plt.ion()#打开画布,可视化更新过程
#6.迭代训练
for epoch in range(2):
for step, (batch_x, batch_y) in enumerate(loader):
out = net(batch_x)#输入训练集,获得当前迭代输出值
loss = loss_func(out, batch_y)#获得当前迭代的损失
optimizer.zero_grad()#清除上次迭代的更新梯度
loss.backward()#反向传播
optimizer.step()#更新权重
if step%200==0:
plt.cla()#清空之前画布上的内容
entire_out = net(x)#测试整个训练集
#获得当前softmax层最大概率对应的索引值
pred = torch.max(F.softmax(entire_out), 1)[1]
#将二维压缩为一维
pred_y = pred.data.numpy().squeeze()
label_y = y.data.numpy()
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn')
accuracy = sum(pred_y == label_y)/y.size()
print("第 %d 个epoch,第 %d 次迭代,准确率为 %.2f"%(epoch+1, step/200+1, accuracy))
#在指定位置添加文本
plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 15, 'color': 'red'})
plt.pause(2)#图像显示时间
#7.保存模型结构和参数
torch.save(net, 'net.pkl')
#7.只保存模型参数
# torch.save(net.state_dict(), 'net_param.pkl')
plt.ioff()#关闭画布
plt.show()
if __name__ == '__main__':
save()
2. 读取已训练好的模型测试数据
import torch
from torch.autograd import Variable
import matplotlib.pyplot as plt
import torch.nn.functional as F
#制作数据
n_data = torch.ones( 100,2 )
x0 = torch.normal( 1.5*n_data, 1 )#均值为2 标准差为1
y0 = torch.zeros( 100 )
x1 = torch.normal( -1.5*n_data,1 )#均值为-2 标准差为1
y1 = torch.ones( 100 )
print("数据集维度:",x0.size(),y0.size())
#合并训练数据集,并转化数据类型为浮点型或整型
x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor )
y = torch.cat( (y0,y1) ).type( torch.LongTensor )
print( "合并后的数据集维度:",x.data.size(), y.data.size() )
#将Tensor放入Variable中
x,y = Variable(x), Variable(y)
#载入模型和参数
def restore_net():
net = torch.load('net.pkl')
#获得载入模型的预测输出
pred = net(x)
# 获得当前softmax层最大概率对应的索引值
pred = torch.max(F.softmax(pred), 1)[1]
# 将二维压缩为一维
pred_y = pred.data.numpy().squeeze()
label_y = y.data.numpy()
accuracy = sum(pred_y == label_y) / y.size()
print("准确率为:",accuracy)
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn')
plt.show()
#仅载入模型参数,需要先创建网络模型
def restore_param():
net = torch.nn.Sequential(
torch.nn.Linear(2,10),#指定输入层和隐层结点,获得隐层线性输出
torch.nn.ReLU(),#隐层非线性化
torch.nn.Linear(10,2)#指定隐层和输出层结点,获得输出层线性输出
)
net.load_state_dict( torch.load('net_param.pkl') )
#获得载入模型的预测输出
pred = net(x)
# 获得当前softmax层最大概率对应的索引值
pred = torch.max(F.softmax(pred), 1)[1]
# 将二维压缩为一维
pred_y = pred.data.numpy().squeeze()
label_y = y.data.numpy()
accuracy = sum(pred_y == label_y) / y.size()
print("准确率为:",accuracy)
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, cmap='RdYlGn')
plt.show()
if __name__ =='__main__':
# restore_net()
restore_param()
来源:https://blog.csdn.net/attitude_yu/article/details/80487423


猜你喜欢
- 表复制: 1. INSERT INTO SELECT语句 语句形式为:Insert into Table2(field1,field2,..
- 1. 前台templates/upload/upload.html<!DOCTYPE html><html lang=&q
- 0x00:事先说明你已经攻陷了对方主机且获得了最高权限。对方的本地防火墙会丢弃所有的外来数据包。这个后门不会仅绑定在某一个端口上。这段代码很
- Celery简介Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统,专注于实时处理的异步任务队列,同时也支持任务调度
- 在使用keras搭建神经网络时,有时需要查看一下预测值和真是值的具体数值,然后可以进行一些其他的操作。这几天查阅了很多资料。好像没办法直接a
- 本文实例为大家分享了Python实现猜拳游戏的具体代码,供大家参考,具体内容如下分析1.玩家从控制台输入内容2.电脑随机输出石头剪刀布3.判
- 需求查询某个字段的时候需要给一个字段同样的值。这个值你可以写死,也可以从数据库获取1、写死值SELECT mfr_id AS mfrId,
- 1. 引言最近闲暇之余,我会去阅读一些Python文档,有时候会注意到一些有趣的Python特性,这些特性不禁让人惊呼:&ldquo
- 下面代码的功能是先训练一个简单的模型,然后保存模型,同时保存到一个pb文件当中,后续可以从pd文件里读取权重值。import tensorf
- Go语言实现互斥锁、随机数、time、Listimport ( "container/list"  
- 阅读目录什么是PrmoisePromise的使用最近在看《你不知道的javascript中卷》,发觉作者花了基本一半的篇幅去讲异步和prom
- 刚开始使用webpack时,可能很多人都会有过这样的想法,在require文件时,能不能不写静态的字符串路径,而是使用一个更灵活的方式,比如
- 在用python绘图的时候,经常由于数据的原因导致画出来的图折线分界过于明显,因此需要对原数据绘制的折线进行平滑处理,本文介绍利用插值法进行
- 以国内最流行ASP为例,我不知道有多少人会在写代码时想到“容错”这个概念,实际上当我遇到这种事时,也是不了了之。为什么呢,想想最初的意思是认
- 鉴于最近一段时间一直在折腾的CNN网络效果不太理想,主要目标是为了检测出图像中的一些关键点,可以参考人脸的关键点检测算法。但是由于从数据集的
- 遇到的问题:在做爬虫的时候,爬取的url链接内还有转义字符,反斜杠 \,打算用正则的re.sub()替换掉的时候遇到了问题,这是要做替换的字
- ktime 开始时间串 dtime 到期时间串 jmonth 付费间隔月份数 可选(1,3,6,12) 需要 按月查询数据 比如说 ktim
- 用了这么多年的CSS,现在才明白CSS的真正匹配原理,不知道你是否也跟我一样?看1个简单的CSS:DIV#divBox p span.red
- goroutine 泄漏和避免泄漏的最佳实践Go的奇妙之处在于,我们可以使用goroutines和channel轻松地执行并发任务。如果在生
- 这是一张灵异事件图。。。开个玩笑,这就是一张普通的图片。毫无疑问,上面的那副图画看起来像一幅电脑背景图片。这些都归功于我的妹妹,她能够将一些