Tensorflow分类器项目自定义数据读入的实现
作者:泠音 发布时间:2023-06-21 20:21:53
标签:Tensorflow,分类器,数据读入
在照着Tensorflow官网的demo敲了一遍分类器项目的代码后,运行倒是成功了,结果也不错。但是最终还是要训练自己的数据,所以尝试准备加载自定义的数据,然而demo中只是出现了fashion_mnist.load_data()并没有详细的读取过程,随后我又找了些资料,把读取的过程记录在这里。
首先提一下需要用到的模块:
import os
import keras
import matplotlib.pyplot as plt
from PIL import Image
from keras.preprocessing.image import ImageDataGenerator
from sklearn.model_selection import train_test_split
图片分类器项目,首先确定你要处理的图片分辨率将是多少,这里的例子为30像素:
IMG_SIZE_X = 30
IMG_SIZE_Y = 30
其次确定你图片的方式目录:
image_path = r'D:\Projects\ImageClassifier\data\set'
path = ".\data"
# 你也可以使用相对路径的方式
# image_path =os.path.join(path, "set")
目录下的结构如下:
相应的label.txt如下:
动漫
风景
美女
物语
樱花
接下来是接在labels.txt,如下:
label_name = "labels.txt"
label_path = os.path.join(path, label_name)
class_names = np.loadtxt(label_path, type(""))
这里简便起见,直接利用了numpy的loadtxt函数直接加载。
之后便是正式处理图片数据了,注释就写在里面了:
re_load = False
re_build = False
# re_load = True
re_build = True
data_name = "data.npz"
data_path = os.path.join(path, data_name)
model_name = "model.h5"
model_path = os.path.join(path, model_name)
count = 0
# 这里判断是否存在序列化之后的数据,re_load是一个开关,是否强制重新处理,测试用,可以去除。
if not os.path.exists(data_path) or re_load:
labels = []
images = []
print('Handle images')
# 由于label.txt是和图片防止目录的分类目录一一对应的,即每个子目录的目录名就是labels.txt里的一个label,所以这里可以通过读取class_names的每一项去拼接path后读取
for index, name in enumerate(class_names):
# 这里是拼接后的子目录path
classpath = os.path.join(image_path, name)
# 先判断一下是否是目录
if not os.path.isdir(classpath):
continue
# limit是测试时候用的这里可以去除
limit = 0
for image_name in os.listdir(classpath):
if limit >= max_size:
break
# 这里是拼接后的待处理的图片path
imagepath = os.path.join(classpath, image_name)
count = count + 1
limit = limit + 1
# 利用Image打开图片
img = Image.open(imagepath)
# 缩放到你最初确定要处理的图片分辨率大小
img = img.resize((IMG_SIZE_X, IMG_SIZE_Y))
# 转为灰度图片,这里彩色通道会干扰结果,并且会加大计算量
img = img.convert("L")
# 转为numpy数组
img = np.array(img)
# 由(30,30)转为(1,30,30)(即`channels_first`),当然你也可以转换为(30,30,1)(即`channels_last`)但为了之后预览处理后的图片方便这里采用了(1,30,30)的格式存放
img = np.reshape(img, (1, IMG_SIZE_X, IMG_SIZE_Y))
# 这里利用循环生成labels数据,其中存放的实际是class_names中对应元素的索引
labels.append([index])
# 添加到images中,最后统一处理
images.append(img)
# 循环中一些状态的输出,可以去除
print("{} class: {} {} limit: {} {}"
.format(count, index + 1, class_names[index], limit, imagepath))
# 最后一次性将images和labels都转换成numpy数组
npy_data = np.array(images)
npy_labels = np.array(labels)
# 处理数据只需要一次,所以我们选择在这里利用numpy自带的方法将处理之后的数据序列化存储
np.savez(data_path, x=npy_data, y=npy_labels)
print("Save images by npz")
else:
# 如果存在序列化号的数据,便直接读取,提高速度
npy_data = np.load(data_path)["x"]
npy_labels = np.load(data_path)["y"]
print("Load images by npz")
image_data = npy_data
labels_data = npy_labels
到了这里原始数据的加工预处理便已经完成,只需要最后一步,就和demo中fashion_mnist.load_data()返回的结果一样了。代码如下:
# 最后一步就是将原始数据分成训练数据和测试数据
train_images, test_images, train_labels, test_labels = \
train_test_split(image_data, labels_data, test_size=0.2, random_state=6)
这里将相关信息打印的方法也附上:
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Image Data", image_data.shape))
print("%-28s %-s" % ("Labels Data", labels_data.shape))
print("=================================================================")
print('Split train and test data,p=%')
print("_________________________________________________________________")
print("%-28s %-s" % ("Name", "Shape"))
print("=================================================================")
print("%-28s %-s" % ("Train Images", train_images.shape))
print("%-28s %-s" % ("Test Images", test_images.shape))
print("%-28s %-s" % ("Train Labels", train_labels.shape))
print("%-28s %-s" % ("Test Labels", test_labels.shape))
print("=================================================================")
之后别忘了归一化哟:
print("Normalize images")
train_images = train_images / 255.0
test_images = test_images / 255.0
最后附上读取自定义数据的完整代码:
import os
import keras
import matplotlib.pyplot as plt
from PIL import Image
from keras.layers import *
from keras.models import *
from keras.optimizers import Adam
from keras.preprocessing.image import ImageDataGenerator
from sklearn.model_selection import train_test_split
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
# 支持中文
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
re_load = False
re_build = False
# re_load = True
re_build = True
epochs = 50
batch_size = 5
count = 0
max_size = 2000000000
来源:https://segmentfault.com/a/1190000018099185


猜你喜欢
- 队列和优先队列(Priority Queue)队列是一种可以完成插入和删除的数据结构。普通队列是先进先出(FIFO), 即先插入的先被删除。
- #!/usr/bin/python #-*-coding:utf-8-*-from PyQt4.QtGui import *fr
- Python 实现删除某路径下文件及文件夹的脚本#!/usr/bin/env pythonimport osimport shutildel
- python socket多线程实现客户端与服务器连接,供大家参考,具体内容如下之前因为一些作业需要完成一个服务器监听多个客户端的程序,于是
- 在Python中可以通过几种方法调用C++的函数,这里介绍使用ctypes的方法。ctypes是Python自带的一个模块,能够直接载入C+
- 本文主要给大家介绍了关于MySQL服务自动停止的解决方法,分享出来供大家参考学习,下面来一起看看:问题描述服务器上安装的 MySQL,会出现
- selenium3.0之后的版本的就不支持直接打开火狐浏览器,启动火狐浏览器报错,如下图,要想运行就需要我们单独装上驱动。3.0之前的版本,
- 颜值打分定义可视化图像函数导入三维人脸关键点检测模型导入可视化函数和可视化样式将图像模型输入,获取预测结果BGR转RGB将RGB图像输入模型
- 几天写过两篇使用VPS的安全性设置的博文,其实不管我们如何设置安全,及时的备份VPS数据才是最为重要的。因为VPS与主机不同,主机可能很多时
- 如何最大限度地实现安全登录功能? 具体方法如下(这是一个程序,为便于说明,中间用虚线“------”将代
- # set 不支持索引和切片,是一个无需的不重复得到容器# 类似于字典,但是只有key 没有value# 创建集合dic1={}set1={
- 利用mask(掩模)技术提取纯色背景图像ROI区域中的人和物,并将提取出来的人或物添加在其他图像上。1、实现原理先通过cv.cvtColor
- 迪杰斯特拉(Dijkstra)算法主要是针对没有负值的有向图,求解其中的单一起点到其他顶点的最短路径算法。1 算法原理迪杰斯特拉(Dijks
- 较基础的SVM,后续会加上多分类以及高斯核,供大家参考。Talk is cheap, show me the codeimport tens
- 第一步:获取mysql YUM源进入mysql官网获取RPM包下载地址https://dev.mysql.com/downloads/rep
- 本文实例讲述了python求解水仙花数的方法。分享给大家供大家参考。具体如下:一个N位的十进制正整数,如果它的每个位上的数字的N次方的和等于
- 我们昨天已经学习了python的文件读写,今天来做一个最简单的例子,写一个最简单的缓存系统,要求:以key``value的方式保持数据,并且
- 什么是反射大多数时候,Go中的变量,类型和函数非常简单直接。当需要一个类型、变量或者是函数时,可以直接定义它们:type Foo struc
- 一般情况下,局域网里的终端比如本地服务器设置静态IP的好处是可以有效减少网络连接时间,原因是过程中省略了每次联网后从DHCP服务器获取IP地
- 这周心血来潮,翻看了现在比较流行的几个JS脚本框架的底层代码,虽然是走马观花,但也受益良多,感叹先人们的伟大……感叹是为了缓解严肃的气氛并引