网络编程
位置:首页>> 网络编程>> 网络编程>> pytorch加载自己的图片数据集的2种方法详解

pytorch加载自己的图片数据集的2种方法详解

作者:_-周-_  发布时间:2023-08-09 00:35:48 

标签:pytorch,加载,图片数据集

pytorch加载图片数据集有两种方法。

1.ImageFolder 适合于分类数据集,并且每一个类别的图片在同一个文件夹, ImageFolder加载的数据集, 训练数据为文件件下的图片, 训练标签是对应的文件夹, 每个文件夹为一个类别

导入ImageFolder()包
from torchvision.datasets import ImageFolder

pytorch加载自己的图片数据集的2种方法详解

在Flower_Orig_dataset文件夹下有flower_orig 和 sunflower这两个文件夹, 这两个文件夹下放着同一个类别的图片。 使用 ImageFolder 加载的图片, 就会返回图片信息和对应的label信息, 但是label信息是根据文件夹给出的, 如flower_orig就是标签0, sunflower就是标签1。

ImageFolder 加载数据集

1. 导入包和设置transform

import torch
from torchvision import transforms, datasets
import torch.nn as nn
from torch.utils.data import DataLoader

transforms = transforms.Compose([
   transforms.Resize(256),    # 将图片短边缩放至256,长宽比保持不变:
   transforms.CenterCrop(224),   #将图片从中心切剪成3*224*224大小的图片
   transforms.ToTensor()          #把图片进行归一化,并把数据转换成Tensor类型
])

2.加载数据集: 将分类图片的父目录作为路径传递给ImageFolder(), 并传入transform。这样就有了要加载的数据集, 之后就可以使用DataLoader加载数据, 并构建网络训练。

path = r'D:\数据集\Flower_Orig_dataset'
data_train = datasets.ImageFolder(path, transform=transforms)
data_loader = DataLoader(data_train, batch_size=64, shuffle=True)
for i, data in enumerate(data_loader):
   images, labels = data
   print(images.shape)
   print(labels.shape)
   break

使用pytorch提供的Dataset类创建自己的数据集。

具体步骤:

1.  首先要有一个txt文件, 这个文件格式是: 图片路径  标签.  这样的格式, 所以使用os库, 遍历自己的图片名, 并把标签和图片路径写入txt文件。

2. 有了这个txt文件, 我们就可以在类里面构造我们的数据集.

2.1    把图片路径和图片标签分割开, 有两个列表, 一个列表是图片路径名, 一个列表是标签号, 有一点就是第 i 个图片列表和 第 i 个标签是对应的

3. 重写__len__方法  和  __getitem__方法

3.1 getitem方法中, 获得对应的图片路径,并用PIL库读取文件把图片transfrom后, 在getitem函数中返回读取的图片和标签即可

4.就可以构建数据集实例和加载数据集.

 定义一个用来生成[ 图片路径 标签] 这样的txt文件函数

def make_txt(root, file_name, label):
   path = os.path.join(root, file_name)
   data = os.listdir(path)
   f = open(path+'\\'+'f.txt', 'w')
   for line in data:
       f.write(line+' '+str(label)+'\n')
   f.close()
#调用函数生成两个文件夹下的txt文件
make_txt(path, file_name='flower_orig', label=0)
make_txt(path, file_name='sunflower', label=1)

将连个txt文件合并成一个txt文件,表示数据集所有的图片和标签

def link_txt(file1, file2):
   txt_list = []
   path = r'D:\数据集\Flower_Orig_dataset\data.txt'

f = open(path, 'a')

f1 = open(file1, 'r')
   data1 = f1.readlines()
   for line in data1:
       txt_list.append(line)

f2 = open(file2, 'r')
   data2 = f2.readlines()
   for line in data2:
       txt_list.append(line)

for line in txt_list:
       f.write(line)

f.close()
   f1.close()
   f2.close()

#调用函数, 将两个文件夹下的txt文件合并
file1 = r'D:\数据集\Flower_Orig_dataset\flower_orig\f.txt'
file2 = r'D:\数据集\Flower_Orig_dataset\sunflower\f.txt'
link_txt(file1=file1, file2=file2)

现在我们已经有了我们制作数据集所需要的txt文件, 接下来要做的即使继承Dataset类, 来构建自己的数据集 , 别忘了前面说的 构建数据集步骤, 在__getitem__函数中, 需要拿到图片路径和标签, 并且用PIL库方法读取图片,对图片进行transform转换后,返回图片信息和标签信息

Dataset加载数据集

我们读取图片的根目录, 在根目录下有所有图片的txt文件, 拿到txt文件后, 先读取txt文件, 之后遍历txt文件中的每一行, 首先去除掉尾部的换行符, 在以空格切分,前半部分是图片名称, 后半部分是图片标签, 当图片名称和根目录结合,就得到了我们的图片路径  
class MyDataset(Dataset):
   def __init__(self, img_path, transform=None):
       super(MyDataset, self).__init__()
       self.root = img_path

self.txt_root = self.root + 'data.txt'
       f = open(self.txt_root, 'r')
       data = f.readlines()

imgs = []
       labels = []
       for line in data:
           line = line.rstrip()
           word = line.split()
           imgs.append(os.path.join(self.root, word[1], word[0]))

labels.append(word[1])
       self.img = imgs
       self.label = labels
       self.transform = transform

def __len__(self):
       return len(self.label)

def __getitem__(self, item):
       img = self.img[item]
       label = self.label[item]

img = Image.open(img).convert('RGB')

#此时img是PIL.Image类型   label是str类型

if transforms is not None:
           img = self.transform(img)

label = np.array(label).astype(np.int64)
       label = torch.from_numpy(label)

return img, label

 加载我们的数据集:

path = r'D:\数据集\Flower_Orig_dataset'
dataset = MyDataset(path, transform=transform)

data_loader = DataLoader(dataset=dataset, batch_size=64, shuffle=True)

接下来我们就可以构建我们的网络架构:

class Net(nn.Module):
   def __init__(self):
       super(Net, self).__init__()
       self.conv1 = nn.Conv2d(3,16,3)
       self.maxpool = nn.MaxPool2d(2,2)
       self.conv2 = nn.Conv2d(16,5,3)

self.relu = nn.ReLU()
       self.fc1 = nn.Linear(55*55*5, 1200)
       self.fc2 = nn.Linear(1200,64)
       self.fc3 = nn.Linear(64,2)

def forward(self,x):
       x = self.maxpool(self.relu(self.conv1(x)))    #113
       x = self.maxpool(self.relu(self.conv2(x)))    #55
       x = x.view(-1, self.num_flat_features(x))
       x = self.relu(self.fc1(x))
       x = self.relu(self.fc2(x))
       x = self.fc3(x)
       return x

def num_flat_features(self, x):
       size = x.size()[1:]
       num_features = 1
       for s in size:
           num_features *= s

return num_features

 训练我们的网络:

model = Net()

criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)

epochs = 10
for epoch in range(epochs):
   running_loss = 0.0
   for i, data in enumerate(data_loader):
       images, label = data

out = model(images)

loss = criterion(out, label)

optimizer.zero_grad()
       loss.backward()
       optimizer.step()

running_loss += loss.item()
       if(i+1)%10 == 0:
           print('[%d  %5d]   loss: %.3f'%(epoch+1, i+1, running_loss/100))
           running_loss = 0.0

print('finished train')

 保存网络模型(这里不止是保存参数,还保存了网络结构)

#保存模型
torch.save(net, 'model_name.pth')   #保存的是模型, 不止是w和b权重值

# 读取模型
model = torch.load('model_name.pth')

来源:https://blog.csdn.net/qq_53345829/article/details/124308515

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com