Pytorch实现图像识别之数字识别(附详细注释)
作者:Spikeeee- 发布时间:2022-04-08 08:12:54
标签:Pytorch,数字识别
使用了两个卷积层加上两个全连接层实现
本来打算从头手撕的,但是调试太耗时间了,改天有时间在从头写一份
详细过程看代码注释,参考了下一个博主的文章,但是链接没注意关了找不到了,博主看到了联系下我,我加上
代码相关的问题可以评论私聊,也可以翻看博客里的文章,部分有详细解释
Python实现代码:
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
import torchvision
from torch.autograd import Variable
from torch.utils.data import DataLoader
import cv2
# 下载训练集
train_dataset = datasets.MNIST(root='E:\mnist',
train=True,
transform=transforms.ToTensor(),
download=True)
# 下载测试集
test_dataset = datasets.MNIST(root='E:\mnist',
train=False,
transform=transforms.ToTensor(),
download=True)
# dataset 参数用于指定我们载入的数据集名称
# batch_size参数设置了每个包中的图片数据个数
# 在装载的过程会将数据随机打乱顺序并进打包
batch_size = 64
# 建立一个数据迭代器
# 装载训练集
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
batch_size=batch_size,
shuffle=True)
# 装载测试集
test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
batch_size=batch_size,
shuffle=True)
# 卷积层使用 torch.nn.Conv2d
# 激活层使用 torch.nn.ReLU
# 池化层使用 torch.nn.MaxPool2d
# 全连接层使用 torch.nn.Linear
class LeNet(nn.Module):
def __init__(self):
super(LeNet, self).__init__()
self.conv1 = nn.Sequential(nn.Conv2d(1, 6, 3, 1, 2),
nn.ReLU(), nn.MaxPool2d(2, 2))
self.conv2 = nn.Sequential(nn.Conv2d(6, 16, 5), nn.ReLU(),
nn.MaxPool2d(2, 2))
self.fc1 = nn.Sequential(nn.Linear(16 * 5 * 5, 120),
nn.BatchNorm1d(120), nn.ReLU())
self.fc2 = nn.Sequential(
nn.Linear(120, 84),
nn.BatchNorm1d(84),
nn.ReLU(),
nn.Linear(84, 10))
# 最后的结果一定要变为 10,因为数字的选项是 0 ~ 9
def forward(self, x):
x = self.conv1(x)
# print("1:", x.shape)
# 1: torch.Size([64, 6, 30, 30])
# max pooling
# 1: torch.Size([64, 6, 15, 15])
x = self.conv2(x)
# print("2:", x.shape)
# 2: torch.Size([64, 16, 5, 5])
# 对参数实现扁平化
x = x.view(x.size()[0], -1)
x = self.fc1(x)
x = self.fc2(x)
return x
def test_image_data(images, labels):
# 初始输出为一段数字图像序列
# 将一段图像序列整合到一张图片上 (make_grid会默认将图片变成三通道,默认值为0)
# images: torch.Size([64, 1, 28, 28])
img = torchvision.utils.make_grid(images)
# img: torch.Size([3, 242, 242])
# 将通道维度置在第三个维度
img = img.numpy().transpose(1, 2, 0)
# img: torch.Size([242, 242, 3])
# 减小图像对比度
std = [0.5, 0.5, 0.5]
mean = [0.5, 0.5, 0.5]
img = img * std + mean
# print(labels)
cv2.imshow('win2', img)
key_pressed = cv2.waitKey(0)
# 初始化设备信息
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 学习速率
LR = 0.001
# 初始化网络
net = LeNet().to(device)
# 损失函数使用交叉熵
criterion = nn.CrossEntropyLoss()
# 优化函数使用 Adam 自适应优化算法
optimizer = optim.Adam(net.parameters(), lr=LR, )
epoch = 1
if __name__ == '__main__':
for epoch in range(epoch):
print("GPU:", torch.cuda.is_available())
sum_loss = 0.0
for i, data in enumerate(train_loader):
inputs, labels = data
# print(inputs.shape)
# torch.Size([64, 1, 28, 28])
# 将内存中的数据复制到gpu显存中去
inputs, labels = Variable(inputs).cuda(), Variable(labels).cuda()
# 将梯度归零
optimizer.zero_grad()
# 将数据传入网络进行前向运算
outputs = net(inputs)
# 得到损失函数
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 通过梯度做一步参数更新
optimizer.step()
# print(loss)
sum_loss += loss.item()
if i % 100 == 99:
print('[%d,%d] loss:%.03f' % (epoch + 1, i + 1, sum_loss / 100))
sum_loss = 0.0
# 将模型变换为测试模式
net.eval()
correct = 0
total = 0
for data_test in test_loader:
_images, _labels = data_test
# 将内存中的数据复制到gpu显存中去
images, labels = Variable(_images).cuda(), Variable(_labels).cuda()
# 图像预测结果
output_test = net(images)
# torch.Size([64, 10])
# 从每行中找到最大预测索引
_, predicted = torch.max(output_test, 1)
# 图像可视化
# print("predicted:", predicted)
# test_image_data(_images, _labels)
# 预测数据的数量
total += labels.size(0)
# 预测正确的数量
correct += (predicted == labels).sum()
print("correct1: ", correct)
print("Test acc: {0}".format(correct.item() / total))
测试结果:
可以通过调用test_image_data函数查看测试图片
可以看到最后预测的准确度可以达到98%
来源:https://blog.csdn.net/weixin_45919985/article/details/116530059
0
投稿
猜你喜欢
- 在工作中出于某些原因,我们可能需要将变量保存下来,这样下次就可以直接去赋值而不用重新执行某些重复耗时的操作了,这里我们用到了Python的p
- 网页链接:https://www.huya.com/g/4079 这里的主要步骤其实还是和我们之前分析的一样,如下图所示:这里再简单带大家看
- 官方文档settings.py配置REST_FRAMEWORK = { 'DEFAULT_THROTTLE_CLASSE
- 治標不治本的就是將php.ini內的reporting部份修改,讓notice不顯示 error_reporting = E_ALL; di
- 本文实例讲述了Python pandas RFM模型应用。分享给大家供大家参考,具体如下:什么是RFM模型根据美国数据库营销研究所Arthu
- 数据类型判断在python(版本3.0以上)使用变量,并进行值比较时。有时候会出现以下错误:TypeError: unorderable t
- 1 map()函数的简介以及语法:map是python内置函数,会根据提供的函数对指定的序列做映射。map()函数的格式是:map(func
- 初试牛刀假设你希望学习Python这门语言,却苦于找不到一个简短而全面的入门教程。那么本教程将花费十分钟的时间带你走入Python的大门。本
- 前言本文主要分享一个python代码,可以将多个视频中的音频转化为相同采样率的视频。对视频格式的校验没有做,也不是很关键。环境依赖ffmpe
- 引言阿刁是一个自动化测试用例,从一出生他就被赋予终生使命,去测试一个叫登录的过程是否合理。他一直就被关在一个小黑屋里面,从来也没有出去过,小
- 下面的例子简单的演示了DOM对XML的操作,详细解释请看代码中的注释 <? /****************************
- 首先是三张表, CNo对应的是课程,在这里我就粘贴了。主表人名表按照常规查询SELECT s.SName, c.CName,s2.SCgra
- python2.7yum install -y zlib zlib-devel openssl openssl-devel mysql-de
- 假设我们有一个非常简单的Post模型,它将是一个图像及其描述,from django.db import modelsclass Post(
- 1. resize函数说明 OpenCV提供了resize函数来改变图像的大小,函数原型如下:void resiz
- 先来看个例子:需求为生成4位数,不足前面补0<?php //生成4位数,不足前面补0 $var=sprintf
- Django RBAC权限管理概述RBAC(Role-Based Access Control,基于角色的访问控制),通过角色绑定权限,然后
- 可以从官网加载预训练好的模型:import torchvision.models as modelsmodel = models.vgg16
- 在前面的文章中介绍了如何用Python读写Excel数据,今天再介绍一下如何用Python修改Excel数据。需要用到xlutils模块。下
- 排序排序是计算机内经常进行的一种操作,其目的是将一组”无序”的记录序列调整为”有序”的记录序列。分内部排序和外部排序。若整个排序过程不需要访