测试保存的卷积自动编码器

问题描述 投票:1回答:1

我已经在Keras中训练并保存了卷积自动编码器。在将模型保存为.h5格式之前,其训练损失为0.2394,验证损失为0.2586。在测试保存的模型时,我得到的损失是验证损失0.6707的两倍以上。我实际上正在使用来自训练数据的样本对其进行测试,目的只是为了查看我是否会像在训练期间一样损失甚至更近。

这里是我如何计算损失,其中“总计”是我通过以测试模型的图像总数

score = np.sqrt(metrics.mean_squared_error(predicteds,images))
print ('Loss:',score/total)

我在计算测试损失时犯了一个错误吗?

这里是模型编译

autoencoder.compile(optimizer='adadelta', loss='binary_crossentropy')

和火车详细

Epoch 17/20167/167 [==============================]-458s 3s / step-损耗:0.2398-val_los s:0.2616时代18/20167/167 [==============================]-462s 3s / step-损耗:0.2392-val_los s:0.2585时代19/20167/167 [==============================]-461s 3s / step-损耗:0.2399-val_los s:0.2609时代20/20167/167 [==============================]-475s 3s /步-损耗:0.2394-val_los s:0.2586] >

我已经在Keras中训练并保存了卷积自动编码器。在将模型保存为.h5格式之前,其训练损失为0.2394,验证损失为0.2586。在测试保存的模型时,我...

python keras deep-learning anomaly-detection
1个回答
0
投票

我认为您正在混淆指标和损失函数。

基于model.compile(),您正在使用binary_crossentropy损失函数。这意味着,冗长中提到的损失与二进制交叉熵有关(loss-训练损失和val_loss-验证损失)。

© www.soinside.com 2019 - 2024. All rights reserved.