这是我的测试生成器代码:
test_generator=test_datagen.flow_from_dataframe(
dataframe=df_test,
directory=img_dir,
x_col="filename",
y_col="label",
batch_size=32,
seed=42,
shuffle=False,
class_mode="categorical",
target_size=(img_size,img_size))
为什么
batch_size
参数在创建生成器后仍然很重要:
Found 229 validated image filenames belonging to 2 classes.
例如,创建生成器后数组的形状限制为 32 - 批量大小:
x_test, y_test = test_generator.next()
这是
x_test
的形状,我假设这是包含实际图像数据的数组:
>>> print(x_test.shape)
(32, 224, 224, 3)
这是我将其与预测长度进行比较的结果:
print(len(x_test)) #32
print(len(y_test)) #32
print(len(pred)) #229
由于
y_test
的大小与预测有很大不同,我很难进行任何类型的比较。 y_test
与批量大小设置为 32 的 test_generator
直接相关。
测试生成器标签似乎具有正确数量的元素:
test_generator.labels
[0, 0, 0, 0, 1, 1, 0, 1, 1, 0, 1, 1, 0, 0, 0, 1, 0, 1, 0, 0, 0, 1, 0, 1, 1, 0, 0, 0, 1, 0, 0, 0, 1, 0........
那么为什么
x_test
的形状只有32呢?我显然错误地认为它应该是 229,因为有 229 个样本,229 个标签?
正如文档here所述,生成器返回的是:
生成 (x, y) 元组的 DataFrameIterator,其中 x 是一个 numpy 数组,其中包含一批形状为(batch_size、target_size、channels)的图像,y 是相应标签的 numpy 数组。
所以,
test_generator
是一个DataFrameIterator
,每次调用它时,它都会给你一批形状为(32, 224, 224, 3)
的图像。因此,您错误地认为它应该是 229,因为有 229 个样本。每次它都会从 229 个样本中为您提供一批 32 个图像。