python代码

    for i, para in enumerate(self._net.module.features.parameters()):
      if i < 16:
        para.requires_grad = False
      else:
        para.requires_grad = True
    # Solver.
    # self._solver = torch.optim.SGD(
    #   self._net.parameters(), lr=self._options['base_lr'],
    #   momentum=0.9, weight_decay=self._options['weight_decay'])
    self._solver = torch.optim.SGD(
      self._net.module.parameters(), lr=self._options['base_lr'],
      momentum=0.9, weight_decay=self._options['weight_decay'])

分析

通过for循环将需要冻结的layer的requires_grad属性设置为False

以上这篇Pytorch 实现冻结指定卷积层的参数就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!