使用Keras中的ImageDataGenerator进行批次读图方式
作者:bendaxi 发布时间:2023-07-02 03:49:50
ImageDataGenerator位于keras.preprocessing.image模块当中,可用于做数据增强,或者仅仅用于一个批次一个批次的读进图片数据.一开始以为ImageDataGenerator是用来做数据增强的,但我的目的只是想一个batch一个batch的读进图片而已,所以一开始没用它,后来发现它是有这个功能的,而且使用起来很方便.
ImageDataGenerator类包含了如下参数:(keras中文教程)
ImageDataGenerator(featurewise_center=False, #布尔值。将输入数据的均值设置为 0,逐特征进行
samplewise_center=False, #布尔值。将每个样本的均值设置为 0
featurewise_std_normalization=False, #布尔值。将输入除以数据标准差,逐特征进行
samplewise_std_normalization=False, #布尔值。将每个输入除以其标准差
zca_whitening=False, #是否进行ZAC白化
zca_epsilon=1e-06, #ZCA 白化的 epsilon 值
rotation_range=0, #整数。随机旋转的度数范围
width_shift_range=0.0,
height_shift_range=0.0,
brightness_range=None,
shear_range=0.0, #浮点数。剪切强度(以弧度逆时针方向剪切角度)
zoom_range=0.0, #浮点数 或 [lower, upper]。随机缩放范围。如果是浮点数,[lower, upper] = [1-zoom_range, 1+zoom_range]。
channel_shift_range=0.0, #浮点数。随机通道转换的范围
fill_mode='nearest', #输入边界以外的点的模式填充
cval=0.0, #当 fill_mode = "constant",边界点的填充值
horizontal_flip=False, #随机水平翻转
vertical_flip=False, #随机垂直翻
rescale=None, #默认为 None。如果是 None 或 0,不进行缩放,否则将数据乘以所提供的值(在应用任何其他转换之前)
preprocessing_function=None, #应用于每个输入的函数。这个函数会在任何其他改变之前运行。这个函数需要一个参数:一张图像(秩为 3 的 Numpy 张量),并且应该输出一个同尺寸的 Numpy 张量。
data_format=None, #图像数据格式,{"channels_first", "channels_last"} 之一
validation_split=0.0,
dtype=None) #生成数组使用的数据类型
虽然包含了很多参数,但实际应用时用到的并不会很多,假设我的目的只是一个batch一个batch的读进图片,那么,我在实例化对象的时候什么参数都不需要设置,然后再调用ImageDataGenerator类的成员函数flow_from_directory()就可以从目录中读图.
我放图片的目录如下图,在train文件夹中包含了两个子文件夹,然后在两个子文件夹里面分别包含了猫和狗的图片.
先看看flow_from_directory()的参数.需要注意的是,第一个参数directory不是图片的路径,而是子文件夹的路径,还有就是第四个参数classes,它填写是子文件夹的名称,比如此处的为['cat', 'dog'],然后该函数就会自动把两个子文件夹看成是2个类别,cat文件夹里面所有图片的标签都为0,dog文件夹里面所有图片的标签都为1.而且可以通过设置第5个参数class_mode把标签设置为ont-hot形式(默认的categorical就是one-hot 形式).可以看出,这个函数有多方便,直接把标签和原图对应起来了.
def flow_from_directory(self,
directory, #子文件夹所在的目录
target_size=(256, 256), #输出的图片的尺寸
color_mode='rgb', #单通道还是三通道
classes=None, #类别,有多少个子文件夹就有多少个类别,填写的是子文件夹的名称
class_mode='categorical', #通常默认,表示标签采用one-hot形式,
batch_size=32,
shuffle=True, #是否随机打乱顺序
seed=None,
save_to_dir=None, #把图片保存,输入的是路径
save_prefix='', #图像前缀名,
save_format='png', #图像后缀名
follow_links=False,
subset=None,
interpolation='nearest')
接下来看一个例子,部分代码.
from tensorflow.keras.preprocessing.image import ImageDataGenerator #我是直接装tensorflow,然后使用里面的keras的,
#实例化对象datagen
datagen=ImageDataGenerator()
#读训练集图片
train_generator = datagen.flow_from_directory(
'/home/hky/folder/kaggle/DataGenerator/train',
classes=['cat','dog'],
target_size=(227, 227),
class_mode='categorical',
batch_size=batch_size)
#读验证集图片
validation_generator = datagen.flow_from_directory(
'/home/hky/folder/kaggle/DataGenerator/validation',
classes=['cat','dog'],
target_size=(227, 227),
class_mode='categorical',
batch_size=batch_size)
'''开始训练'''
#steps_per_epoch是为了判断是否完成了一个epoch,这里我训练集有20000张图片,然后batch_size=16,所以是10000/16
#同样,validation_steps=2496/16是因为我的验证集有2496张图片
model.fit_generator(generator=train_generator,steps_per_epoch=20000/16,epochs=10,validation_data=validation_generator,validation_steps=2496/16)
下面是完整代码,实现了一个AlexNet模型.
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.preprocessing import image
from tensorflow.keras.callbacks import EarlyStopping
from tensorflow.keras import optimizers
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import numpy as np
import cv2
import yaml
from tensorflow.keras.models import model_from_yaml
batch_size = 16
''' 搭建模型'''
l=tf.keras.layers
model=Sequential()
#第一层卷积和池化
model.add(l.Conv2D(filters=96,kernel_size=(11,11),strides=(4,4),padding='valid',input_shape=(227,227,3),activation='relu'))
model.add(l.BatchNormalization())
model.add(l.MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='valid'))
#第二层卷积和池化
model.add(l.Conv2D(256,(5,5),(1,1),padding='same',activation='relu'))
model.add(l.BatchNormalization())
model.add(l.MaxPooling2D((3,3),(2,2),padding='valid'))
#第三层卷积
model.add(l.Conv2D(384,(3,3),(1,1),'same',activation='relu'))
#第四层卷积
model.add(l.Conv2D(384,(3,3),(1,1),'same',activation='relu'))
#第五层卷积和池化
model.add(l.Conv2D(256,(3,3),(1,1),'same',activation='relu'))
model.add(l.MaxPooling2D((3,3),(2,2),'valid'))
#全连接层
model.add(l.Flatten())
model.add(l.Dense(4096,activation='relu'))
model.add(l.Dropout(0.5))
model.add(l.Dense(4096,activation='relu'))
model.add(l.Dropout(0.5))
model.add(l.Dense(1000,activation='relu'))
model.add(l.Dropout(0.5))
#输出层
model.add(l.Dense(2,activation='softmax'))
model.compile(optimizer='sgd',loss='categorical_crossentropy',metrics=['accuracy'])
'''导入图片数据'''
#利用ImageDataGenerator生成一个batch一个batch的数据
datagen=ImageDataGenerator(samplewise_center=True,rescale=1.0/255) #samplewise_center:使输入数据的每个样本均值为0,rescale:归一化
train_generator = datagen.flow_from_directory(
'/home/hky/folder/kaggle/DataGenerator/train',
classes=['cat','dog'],
target_size=(227, 227),
class_mode='categorical',
batch_size=batch_size)
validation_generator = datagen.flow_from_directory(
'/home/hky/folder/kaggle/DataGenerator/validation',
classes=['cat','dog'],
target_size=(227, 227),
class_mode='categorical',
batch_size=batch_size)
'''开始训练'''
model.fit_generator(generator=train_generator,steps_per_epoch=20000/16,epochs=10,validation_data=validation_generator,validation_steps=2496/16)
yaml_string = model.to_yaml() # 保存模型结构到yaml文件
open('./model_architecture.yaml', 'w').write(yaml_string)
model.save_weights('./AlexNet_model.h5') #保存模型参数
'''导入模型'''
#model = model_from_yaml(open('./model_architecture.yaml').read())
#model.load_weights('./AlexNet_model.h5')
'''随便输入一张图片测试一下'''
imgs=[]
img=cv2.imread('/home/hky/folder/kaggle/test/120.jpg')
img=cv2.resize(img,(227,227))
imgs.append(img)
a=np.array(imgs)
result=model.predict(a)
idx=np.argmax(result)
if idx==0:
print('the image is cat\n')
else:
print('the image is dog\n')
cv2.imshow("image",img)
cv2.waitKey(0)
来源:https://blog.csdn.net/bendaxi/article/details/89704729
猜你喜欢
- 目录它有什么作用?安装方法简介它有什么作用?它提供了一种将包括Python对象在内的结构化数据打包为JSON可序列化格式的机制。通过向相应的
- 本文主要是针对 cumsum函数的一些用法。具体应用场景看下面的数据集。第一列是userID,第二列是安装的时间,第三列是安装的次数。我们现
- 如图所示,我们要计算任意两个向量之间的夹角。(图中的坐标数字是估计值,随手给定)python代码如下import math AB = [1,
- python是解释型语言,本文介绍了Python下利用turtle实现绘图功能的示例,本例所示为Python绘制一个树枝,具体实现代码如下:
- 本文实例讲述了python+Django+apache的配置方法。分享给大家供大家参考,具体如下:下载安装xampp套件下载mod_pyth
- 缘起最近复习设计模式拜读谭勇德的<<设计模式就该这样学>>该书以java语言演绎了常见设计模式本系列笔记拟采用gol
- 第一步肯定是打上SQL SERVER最新的安全补丁.如果这一步都没有做好,那我们也没有继续下去的必要了。 第二步是修改默认的1433端口,并
- 使用图层可以像素为单位精确定位页面元素,并且可以将层放置在页面的任意位置。当把页面元素放入图层之中时,还可以控制哪个显示在前面、哪个显示在后
- 在Python中,字典是通过散列表或说哈希表实现的。字典也被称为关联数组,还称为哈希数组等。也就是说,字典也是一个数组,但数组的索引是键经过
- 【人工智能项目】Python Flask搭建yolov3目标检测系统后端代码from flask import Flask, request
- logging模块介绍Python的logging模块提供了通用的日志系统,熟练使用logging模块可以方便开发者开发第三方模块或者是自己
- 导读:由于banner一般用于专题类网站,在门户网站的二级页面,用户进来之前,在首页已经对主题有一定的了解和认识,所以banner的作用是在
- 人们常说人生就是一个不断做选择题的过程:有的人没得选,只有一条路能走;有的人好一点,可以二选一;有些能力好或者家境好的人,可以有更多的选择;
- 这篇论坛文章(赛迪网技术社区)详细讲解了SQL Server海量数据导入的最快方法,更多内容请参考下文:最近做某项目的数据库分析,要实现对海
- 在学习asp过程中相信很多初学者对Sub与Function的用法有些疑惑,好像它们没什么区别都可以使用。呵呵,看了本文的介绍您就可以了解了S
- 根据django官方文档建议,开发过程中会把生成的migrations提交到git中。由于各种原因,会有一些场景需要重置migrations
- 本文实例讲述了Python设计模式之外观模式。分享给大家供大家参考,具体如下:外观模式(Facade Pattern):为子系统中的一组接口
- 无论是在小得可怜的免费数据库空间或是大型电子商务网站,合理的设计表结构、充分利用空间是十分必要的。这就要求我们对数据库系统的常用MySQL数
- 上篇文章给大家介绍了Python爬虫实现百度翻译功能过程详解Python爬虫学习之翻译小程序 感兴趣的朋友点击查看。今天给大家介
- 需要用到的包:beautifulsoup4 html5lib image requests redis PyMySQLpip安装所有依赖包: