当前位置 博文首页 > Pytorch实现网络部分层的固定不进行回传更新问题及思路详解

    Pytorch实现网络部分层的固定不进行回传更新问题及思路详解

    作者:呆呆象呆呆 时间:2021-09-16 18:28

    目录
    • 实际问题
    • 问题解决思路
    • 代码实现
    • LAST 参考文献

    实际问题

    Pytorch有的时候需要对一些层的参数进行固定,这些层不进行参数的梯度更新

    问题解决思路

    那么从理论上来说就有两种办法

    • 优化器初始化的时候不包含这些不想被更新的参数,这样他们会进行梯度回传,但是不会被更新
    • 将这些不会被更新的参数梯度归零,或者不计算它们的梯度

    思路就是利用tensorrequires_grad,每一个tensor都有自己的requires_grad成员,值只能为TrueFalse。我们对不需要参与训练的参数的requires_grad设置为False

    在optim参数模型参数中过滤掉requires_grad为False的参数。
    还是以上面搭建的简单网络为例,我们固定第一个卷积层的参数,训练其他层的所有参数。

    代码实现

    class Net(nn.Module):
        def __init__(self):
            super(Net,self).__init__()
            self.conv1 = nn.Conv2d(3,32,3)
            self.conv2 = nn.Conv2d(32,24,3)
            self.prelu = nn.PReLU()
            for m in self.modules():
                if isinstance(m,nn.Conv2d):
                    nn.init.xavier_normal_(m.weight.data)
                    nn.init.constant_(m.bias.data,0)
                if isinstance(m,nn.Linear):
                    m.weight.data.normal_(0.01,0,1)
                    m.bias.data.zero_()
        def forward(self, input):
            out = self.conv1(input)
            out = self.conv2(out)
            out = self.prelu(out)
            return out

    遍历第一层的参数,然后为其设置requires_grad

    model = Net()
    for name, p in model.named_parameters():
        if name.startswith('conv1'):
            p.requires_grad = False
            
    optimizer = torch.optim.Adam(filter(lambda x: x.requires_grad is not False ,model.parameters()),lr= 0.2)

    为了验证一下我们的设置是否正确,我们分别看看model中的参数的requires_gradoptim中的params_group()

    for p in model.parameters():
        print(p.requires_grad)

    能看出优化器仅仅对requires_gradTrue的参数进行迭代优化。

    LAST 参考文献

    Pytorch中,动态调整学习率、不同层设置不同学习率和固定某些层训练的方法_我的博客有点东西-CSDN博客

    jsjbwy
    下一篇:没有了