网络编程
位置:首页>> 网络编程>> Python编程>> Pytorch保存模型用于测试和用于继续训练的区别详解

Pytorch保存模型用于测试和用于继续训练的区别详解

作者:鱼丸粗面233  发布时间:2021-12-02 08:49:39 

标签:Pytorch,保存,模型

保存模型

保存模型仅仅是为了测试的时候,只需要


torch.save(model.state_dict, path)

path 为保存的路径

但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是 Adam优化器的时候, 一定要保存好训练的优化器参数以及epoch


state = { 'model': model.state_dict(), 'optimizer':optimizer.state_dict(), 'epoch': epoch }  
torch.save(state, path)

因为这里


def adjust_learning_rate(optimizer, epoch):
 lr_t = lr
 lr_t = lr_t * (0.3 ** (epoch // 2))
 for param_group in optimizer.param_groups:
   param_group['lr'] = lr_t

学习率是根据epoch变化的, 如果不保存epoch的话,基本上每次都从epoch为0开始训练,这样学习率就相当于不变了!!

恢复模型

恢复模型只用于测试的时候,


model.load_state_dict(torch.load(path))

path为之前存储模型时的路径

但是如果是用于继续训练的话,


checkpoint = torch.load(path)
model.load_state_dict(checkpoint['model'])
optimizer.load_state_dict(checkpoint['optimizer'])
start_epoch = checkpoint['epoch']+1

依次恢复出模型 优化器参数以及epoch

来源:https://blog.csdn.net/weixin_43122521/article/details/88896996

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com