RuntimeError: Error(s) in loading state_dict for ..:Missing key(s) in state_dict: …Unexpected key...
原因:预训练权重层数的键值与新构建的模型中的权重层数名称不吻合,Checkpoint里面的模型是在双卡上训练的,保存的key前面都多一个module.
解决:model = torch.nn.DataParallel(model, device_ids=[0, 1]).cuda()
torch.nn.DataParallel是一种能够将数据分散到多张显卡上从而加快模型训练的方法。它的原理是首先在指定的每张显卡上拷贝一份模型,然后将输入的数据分散到各张显卡上,计算梯度,回传到第一张显卡上,然后再对模型进行参数优化。
注意:不能直接在load_state_dict里面加strict = False来解决此问题,加入strict = False,预训练权重层数的键值与新构建的模型中的权重层数名称不用完全吻合,容易出错。
torch.load_state_dict()函数就是用于将预训练的参数权重加载到新的模型之中,load_state_dict(fsd,strict=False) ,当strict=True,要求预训练练权重层数的键值与新构建的模型中的权重层数名称完全吻合。
pytorch中state_dict()和load_state_dict()函数配合使用可以实现状态的获取与重载,load()和save()函数配合使用可以实现参数的存储与读取。其中最重要的部分是“字典”的概念,因为参数对象的存储是需要“名称”——“值”对应(即键值对),读取时也是通过键值对读取的。
载入muti-GPU模型:
pretrain_model = torch.load('muti_gpu_model.pth') # 网络+权重# 载入为single-GPU模型gpu_model = pretrained_model.module# 载入为CPU模型model = ModelArch()pretained_dict = pretained_model.module.state_dict()model.load_satte_dict(pretained_dict)
载入muti-GPU权重:
model = ModelArch().cuda() model = torch.nn.DataParallel(model, device_ids=[0]) # 将model转为muti-GPU模式checkpoint = torch.load(model_path, map_location=lambda storage, loc:storage) model.load_state_dict(checkpoint)# 载入为single-GPU模型gpu_model = model.module# 载入为CPU模型model = ModelArch()model.load_state_dict(gpu_model.state_dict())torch.save(cpu_model.state_dict(), 'cpu_model.pth')
载入CPU权重:
# 载入为CPU模型model = ModelArch()checkpoint = torch.load(model_path, map_location=lambda storage, loc:storage) # 载入为single-GPU模型model = ModelArch().cuda() checkpoint = torch.load(model_path, map_location=lambda storage, loc:storage.cuda(0)) model.load_state_dict(checkpoint)# 载入为muti-GPU模型model = ModelArch().cuda() model = torch.nn.DataParallel(model, device_ids=[0, 1]) checkpoint = torch.load(model_path, map_location=lambda storage, loc:storage.cuda(0)) model.module.load_state_dict(checkpoint)
其他报错:
RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!
解决:把所有tensor都要放在GPU上去
来源地址:https://blog.csdn.net/daydayup858/article/details/128151068
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341