记录pytorch保存和加载模型的接口函数。
当保存和加载模型时,需要熟悉三个核心功能:
- torch.save:将序列化对象保存到磁盘。此函数使用Python的pickle模块进行序列化。使用此函数可以保存如模型、tensor、字典等各种对象。
- torch.load:使用pickle的unpickling功能将pickle对象文件反序列化到内存。此功能还可以有助于设备加载数据。
- torch.nn.Module.load_state_dict:使用反序列化函数 state_dict 来加载模型的参数字典。
在PyTorch中,torch.nn.Module
模型的可学习参数(即权重和偏差)包含在模型的参数中,(使用model.parameters()可以进行访问)。 state_dict
是Python字典对象,它将每一层映射到其参数张量。注意,只有具有可学习参数的层(如卷积层,线性层等)的模型 才具有state_dict
这一项。目标优化torch.optim
也有state_dict
属性,它包含有关优化器的状态信息,以及使用的超参数。
因为state_dict
的对象是Python字典,所以它们可以很容易的保存、更新、修改和恢复,为PyTorch模型和优化器添加了大量模块。
下面通过从简单模型训练一个分类器中来了解一下state_dict
的使用。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
|
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
# 定义模型
class TheModelClass(nn.Module):
def __init__(self):
super(TheModelClass, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
# 初始化模型
model = TheModelClass()
# 初始化优化器
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
# 打印模型的状态字典
print("Model's state_dict:")
for param_tensor in model.state_dict():
print(param_tensor, "\t", model.state_dict()[param_tensor].size())
# 打印优化器的状态字典
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():
print(var_name, "\t", optimizer.state_dict()[var_name])
|
1
|
torch.save(model.state_dict(), PATH)
|
1
2
3
|
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()
|
当保存好模型用来推断的时候,只需要保存模型学习到的参数,使用torch.save()
函数来保存模型state_dict
,它会给模型恢复提供 最大的灵活性,这就是为什么要推荐它来保存的原因。
在 PyTorch 中最常见的模型保存使‘.pt’或者是‘.pth’作为模型文件扩展名。
请记住,在运行推理之前,务必调用model.eval()
去设置 dropout
和 batch normalization
层为评估模式。如果不这么做,可能导致 模型推断结果不一致。
- 注意
load_state_dict()
函数只接受字典对象,而不是保存对象的路径。这就意味着在你传给load_state_dict()
函数之前,你必须反序列化 你保存的state_dict
。例如,你无法通过 model.load_state_dict(PATH)
来加载模型。
1
|
torch.save(model, PATH)
|
1
2
3
|
# 模型类必须在此之前被定义
model = torch.load(PATH)
model.eval()
|
此部分保存/加载过程使用最直观的语法并涉及最少量的代码。以 Python pickle
模块的方式来保存模型。这种方法的缺点是序列化数据受 限于某种特殊的类而且需要确切的字典结构。这是因为pickle无法保存模型类本身。相反,它保存包含类的文件的路径,该文件在加载时使用。 因此,当在其他项目使用或者重构之后,您的代码可能会以各种方式中断。
1
2
3
4
5
6
7
|
torch.save({
'epoch': epoch,
'model_state_dict': model.state_dict(),
'optimizer_state_dict': optimizer.state_dict(),
'loss': loss,
...
}, PATH)
|
1
2
3
4
5
6
7
8
9
10
11
12
|
model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)
checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
model.eval()
# - or -
model.train()
|
当保存成 Checkpoint
的时候,可用于推理或者是继续训练,保存的不仅仅是模型的 state_dict
。保存优化器的 state_dict
也很重要, 因为它包含作为模型训练更新的缓冲区和参数。你也许想保存其他项目,比如最新记录的训练损失,外部的torch.nn.Embedding
层等等。
要保存多个组件,请在字典中组织它们并使用torch.save()
来序列化字典。PyTorch 中常见的保存checkpoint
是使用 .tar
文件扩展名。
要加载项目,首先需要初始化模型和优化器,然后使用torch.load()
来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。
请记住在运行推理之前,务必调用model.eval()
去设置 dropout
和 batch normalization
为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用model.train()
以确保这些层处于训练模式。
1
2
3
4
5
6
7
|
torch.save({
'modelA_state_dict': modelA.state_dict(),
'modelB_state_dict': modelB.state_dict(),
'optimizerA_state_dict': optimizerA.state_dict(),
'optimizerB_state_dict': optimizerB.state_dict(),
...
}, PATH)
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
modelA = TheModelAClass(*args, **kwargs)
modelB = TheModelBClass(*args, **kwargs)
optimizerA = TheOptimizerAClass(*args, **kwargs)
optimizerB = TheOptimizerBClass(*args, **kwargs)
checkpoint = torch.load(PATH)
modelA.load_state_dict(checkpoint['modelA_state_dict'])
modelB.load_state_dict(checkpoint['modelB_state_dict'])
optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])
optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])
modelA.eval()
modelB.eval()
# - or -
modelA.train()
modelB.train()
|
当保存一个模型由多个torch.nn.Modules组成时,例如GAN(对抗生成网络)、sequence-to-sequence (序列到序列模型), 或者是多个模 型融合, 可以采用与保存常规检查点相同的方法。换句话说,保存每个模型的 state_dict 的字典和相对应的优化器。如前所述,可以通 过简单地将它们附加到字典的方式来保存任何其他项目,这样有助于恢复训练。
PyTorch 中常见的保存 checkpoint
是使用 .tar
文件扩展名。
要加载项目,首先需要初始化模型和优化器,然后使用torch.load()
来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。
请记住在运行推理之前,务必调用model.eval()
去设置 dropout
和 batch normalization
为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用model.train()
以确保这些层处于训练模式。
1
|
torch.save(modelA.state_dict(), PATH)
|
1
2
|
modelB = TheModelBClass(*args, **kwargs)
modelB.load_state_dict(torch.load(PATH), strict=False)
|
在迁移学习或训练新的复杂模型时,部分加载模型或加载部分模型是常见的情况。利用训练好的参数,有助于热启动训练过程,并希望帮助你的模型比从头开始训练能够更快地收敛。
无论是从缺少某些键的 state_dict
加载还是从键的数目多于加载模型的 state_dict
, 都可以通过在load_state_dict()
函数中将strict参数设置为 False 来忽略非匹配键的函数。
如果要将参数从一个层加载到另一个层,但是某些键不匹配,主要修改正在加载的 state_dict 中的参数键的名称以匹配要在加载到模型中的键即可。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
# 保存到 CPU、加载到 CPU
torch.save(model.state_dict(), PATH)
device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))
# 保存到 GPU、加载到 GPU
torch.save(model.state_dict(), PATH)
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# 确保在你提供给模型的任何输入张量上调用input = input.to(device)
# 保存到 CPU,加载到 GPU
torch.save(model.state_dict(), PATH)
device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you want
model.to(device)
# 确保在你提供给模型的任何输入张量上调用input = input.to(device)
# 保存 torch.nn.DataParallel 模型
torch.save(model.module.state_dict(), PATH)
# 加载任何你想要的设备
|