Pytorch保存模型用于测试和用于继续训练的区别详解
保存模型
保存模型仅仅是为了测试的时候,只需要
torch.save(model.state_dict,path)
path为保存的路径
但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是Adam优化器的时候,一定要保存好训练的优化器参数以及epoch
state={'model':model.state_dict(),'optimizer':optimizer.state_dict(),'epoch':epoch} torch.save(state,path)
因为这里
defadjust_learning_rate(optimizer,epoch): lr_t=lr lr_t=lr_t*(0.3**(epoch//2)) forparam_groupinoptimizer.param_groups: param_group['lr']=lr_t
学习率是根据epoch变化的,如果不保存epoch的话,基本上每次都从epoch为0开始训练,这样学习率就相当于不变了!!
恢复模型
恢复模型只用于测试的时候,
model.load_state_dict(torch.load(path))
path为之前存储模型时的路径
但是如果是用于继续训练的话,
checkpoint=torch.load(path) model.load_state_dict(checkpoint['model']) optimizer.load_state_dict(checkpoint['optimizer']) start_epoch=checkpoint['epoch']+1
依次恢复出模型优化器参数以及epoch
以上这篇Pytorch保存模型用于测试和用于继续训练的区别详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。