在优化器中设置不同学习率

model = MyModel(**args)
# 不同层使用不同学习率
param_optimizer = list(model.named_parameters())
# pretrain model param
param_pre = [(n, p) for n, p in param_optimizer if 'bert' in n]
# downstream model param
param_downstream = [(n, p) for n, p in param_optimizer if 'bert' not in n]

no_decay = ['bias', 'LayerNorm', 'layer_norm']
optimizer_grouped_parameters = [
# pretrain model param
    {'params': [p for n, p in param_pre if not any(nd in n for nd in no_decay)],
    'weight_decay': self.config.weight_decay_rate, 'lr': self.config.bert_lr
    },
    {'params': [p for n, p in param_pre if any(nd in n for nd in no_decay)],
    'weight_decay': 0.0, 'lr': self.config.bert_lr
    },
# downstream model
            {'params': [p for n, p in param_downstream if not any(nd in n for nd in no_decay)],
             'weight_decay': self.config.weight_decay_rate, 'lr': self.config.downstream_lr
             },
    {'params': [p for n, p in param_downstream if any(nd in n for nd in no_decay)],
    'weight_decay': 0.0, 'lr': self.config.downstream_lr
    }
    ]

# define the optimizer
# optimizer = optim.Adam(filter(lambda p: p.requires_grad, ori_model.parameters()), lr=self.config.learning_rate) # 在网络中固定部分参数进行训练
optimizer = optim.Adam(optimizer_grouped_parameters, lr=self.config.bert_lr, betas=(0.9, 0.99))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值