首页 > 其他 > 详细

Pytorch自定义加载预训练权重

时间:2021-06-09 18:25:42      阅读:17      评论:0      收藏:0      [点我收藏+]

pytorch保存模型权重非常方便

技术分享图片

 

保存模型可以分为两种

一种是保存整个网络(网络结构+权重参数)

torch.save(model, net.pth.tar)

一种是只保存模型的权重参数(速度快,内存占用少)

torch.save(model.state_dict(), net.pth.tar)

标准的加载还可以做一些设置

技术分享图片

 

如果加载模型只是为了进行推理测试,则将每一层的 requires_grad 置为 False,即固定这些权重参数;还需要调用 model.eval() 将模型置为测试模式,主要是将 dropout 和 batch normalization 层进行固定,否则模型的预测结果每次都会不同。

如果希望继续训练,则调用 model.train(),以确保网络模型处于训练模式。

 

然后,想使用预训练权重有非常严格的要求,要求每一层一模一样,命名都要一样(不然dict的key就不一样了

如果两个模型实际是一样,既然是字典,可不可以手动赋值呢?

比如,我把cnn命名成conv了,导致load失败,因此我们来手动赋值

技术分享图片

 

虽然load成功了,但是实际效果有点问题,直接用于生成,得到的图像颜色不对。

按道理两种方法的权重应该是一模一样啊,

技术分享图片

 

前两个是手动赋值,颜色都有偏差,第三个直接load的正常。。。

难道model.state_dict() 没有包含所有的权重信息?

 

其实还有一个简便方法:使用strict=False 参数

model.load_state_dict(checkpoint["state_dict"], strict=False)
optimizer.load_state_dict(checkpoint["optimizer"])

奇怪的是,model的load_state_dict有strict参数,optimizer没有

 

 

参考链接:https://zhuanlan.zhihu.com/p/73893187

Pytorch自定义加载预训练权重

原文:https://www.cnblogs.com/lfri/p/14866849.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!