pytorch自定义初始化权重的方法

  

在常见的pytorch代码中,我们见到的初始化方式都是调用init类对每层所有参数进行初始化。但是,有时我们有些特殊需求,比如用某一层的权重取优化其它层,或者手动指定某些权重的初始值。

  

核心思想就是构造和该层权重同一尺寸的矩阵去对该层权重赋值。但,是值得注意的是,pytorch中各层权重的数据类型是nn.Parameter,而不是张量或者变量。

        进口火炬   进口火炬。神经网络是神经网络   进口火炬。optim是optim   进口numpy np      #第一一个卷积层,我们可以看到它的权值是随机初始化的   w=torch.nn.Conv2d(2, 2, 3,填充=1)   打印(w.weight)         #第一种方法   打印(“1。使用另一个Conv层的权值”)   q=torch.nn.Conv2d(2, 2, 3,填充=1)#假设问代表一个训练好的卷积层   打印(q.weight) #可以看到q的权重和w是不同的   w.weight=问。重量#把一个Conv层的权重赋值给另一个Conv层   打印(w.weight)      #第二种方法   打印(“2。使用来自张量的权值”)   的=torch.Tensor (np.ones([2, 2、3、3])) #先创建一个自定义权值的张量,这里为了方便将所有权值设为1   w.weight=torch.nn.Parameter(的)#把张量的值作为权值赋值给Conv层,这里需要先转为torch.nn.Parameter类型,否则将报的错   打印(w.weight)      

  

参数是torch.autograd.Variable的一个字类,常被用于模块的参数,例如权重和偏置。

  

参数和模块一起使用的时候会有一些特殊的属性.parameters赋值给模块的属性的时候,它会被自动加到模块的参数列表中,即会出现在参数()迭代器中。将变量赋给模块的时候没有这样的属性。这可以在nn.Module的实现中详细看一下。这样做是为了保存模型的时候只保存权重偏置参数,不保存节点值,所以复加写变量以区分。

  

另外一个不同是参数不能设置不稳定,而且require_grad默认设置为true.Varaible默认设置为假的。

  

<强>参数:

  

参数。数据得到张量数据

  

参数。requires_grad默认为真的,BP过程中会求导

  

参数一般是在模块中作为权重和偏置,自动加入参数列表,可以进行保存恢复。和变量具有相同的运算。

  

我们可以这样简单区分,在计算图中,数据(包括输入数据和计算过程中产生的特性映射等)时变量类型,该类型不会被保存到模型中。网络的权重是参数类型,在计算过程中会被更新,将会被保存到模型中。

  

以上这篇pytorch自定义初始化权重的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

pytorch自定义初始化权重的方法