class Net(nn.Module):
def __init__(self, l1=120, l2=84):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, l1)
self.fc2 = nn.Linear(l1, l2)
self.fc3 = nn.Linear(l2, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
16是卷积后Activation Map的数量。 我不明白 self.fc1 = nn.Linear(16 * 5 * 5, l1) 5*5 是如何计算的? 有没有计算公式?
转换层输出的总特征大小取决于输入大小。从模型本身来看还不清楚,但您发布的代码适用于输入大小
(bs, 3, 32, 32)
。
该模型不适用于任何其他输入尺寸。这就是为什么使用
AdaptiveMaxPool2d
通常优于固定大小池。