在pytorch中为CNN设置自定义内核

问题描述 投票:0回答:2

有没有办法在pytorch中为卷积神经网络指定我们自己的自定义内核值?像张量流中的kernel_initialiser?例如。我想在nn.Conv2d中使用初始化的3x3内核,以便它充当身份内核 -

0 0 0 0 1 0 0 0 0

(这将在第一次迭代中有效地返回与我的输入相同的输出)

我对该主题的非详尽研究 -

我可以使用nn.init但它只有一些预定义的内核初始化值。

我试图跟随他们的official thread的讨论,但它不符合我的需要。

我可能错过了我的研究中的一些内容,请随时指出。

python conv-neural-network pytorch torch
2个回答
0
投票

感谢ptrblck,我能够解决它。我可以将新的卷积层定义为conv,并且根据示例,我可以使用 - 设置身份内核 -

weights = ch.Tensor([[0, 0, 0], [0, 1, 0], [0, 0, 0]]).unsqueeze(0).unsqueeze(0)
weights.requires_grad = True


conv = nn.Conv2d(1, 1, kernel_size=3, stride=1, padding=1, bias=False)

with ch.no_grad():
    conv.weight = nn.Parameter(weights)

然后我可以继续使用conv作为我的常规nn.Conv2d层。


0
投票

我认为更简单的解决方案是:

    deconv = nn.ConvTranspose2d(
        in_channels=channel_dim, out_channels=channel_dim,
        kernel_size=kernel_size, stride=stride,
        bias=False, padding=1, output_padding=1
    )
    deconv.weight.data.copy_(
        get_upsampling_weight(channel_dim, channel_dim, kernel_size)
    )

换句话说使用copy_

© www.soinside.com 2019 - 2024. All rights reserved.