打印神经网络权重时如何去掉grad_fn

问题描述 投票:0回答:1

我有一个神经网络,它使用 nn.层之间的线性连接。使用以下代码打印输入层和隐藏层之间的权重时:

print("Weight:", net.fc1.weight[0])

打印输出如下所示:

Weight: tensor([ 0.0375,  0.1901,  0.0787,  0.2476,  0.0740,  0.2848, -0.2852, -0.0864,
     0.1827,  0.1384], grad_fn=<SelectBackward0>)

有没有办法停止打印

grad_fn=<SelectBackward0>
并像这样打印重量:

Weight: tensor([ 0.0375,  0.1901,  0.0787,  0.2476,  0.0740,  0.2848, -0.2852, -0.0864,
 0.1827,  0.1384])
python pytorch neural-network
1个回答
0
投票
weight_without_grad = net.fc1.weight[0].clone().requires_grad_(False)
print("Weight:", weight_without_grad)

这会克隆张量并打印它。另一种方法是使用

detach()
但我不会建议,因为顾名思义,它会分离张量

© www.soinside.com 2019 - 2024. All rights reserved.