我有几千张要裁剪的扫描图像。我正在编写一个脚本,如果我可以确定源图像是来自未裁剪边框(扫描仪盖)的 3x5 图片还是 4x6 图片,该脚本将相应地裁剪图片。
我找到了命令行工具来比较和匹配整个图像(使用 imagemagick convert),但不是图像的指定区域:
convert img1.jpg "img2.jpg" -compose difference -composite -colorspace gray miff:- | identify -verbose - | sed -n '/^.*mean: */{s//scale=2;/;s/(.*)//;s/$/*100\/32768/;p;q;}' | bc
(如果结果< .10, but it is cpu-intensive)
,通常是匹配的是否有工具或 Python 图像库可以让我匹配比较两个图像中的某些区域以查看它们是否匹配?未裁剪区域不是纯白色,如下面的示例图像 (1 3x5、1 4x6) 所示。我只需要匹配前 100 个左右的像素,显然我无法匹配整个图像。我考虑过复制和裁剪图像并将裁剪图像与参考图像匹配,但这似乎不太理想。
numpy
编写自己的工具会非常简单。基本程序是:
ndarray
.如果性能有问题,可以通过使用
seek()
移动文件来优化步骤 #2,并且只读取文件的一部分以加快速度。
numpy
部分的概念验证实现:
>>> import numpy as np
>>> scanner_lid = np.ones((5, 5))
>>> scanner_lid
array([[ 1., 1., 1., 1., 1.],
[ 1., 1., 1., 1., 1.],
[ 1., 1., 1., 1., 1.],
[ 1., 1., 1., 1., 1.],
[ 1., 1., 1., 1., 1.]])
>>> photo = np.random.randint(0, 2, (5, 5))
>>> photo
array([[0, 0, 1, 1, 0],
[0, 1, 1, 1, 0],
[0, 0, 1, 1, 1],
[1, 1, 0, 0, 1],
[1, 0, 1, 1, 1]])
>>> matching_pixels = scanner_lid[0:2, 0:2] == photo[0:2, 0:2] #compare the top-left 4 pixels
>>> matching_pixels
array([[False, False],
[False, True]], dtype=bool)
>>> np.sum(matching_pixels)
1
当然,在现实世界的应用程序中,您可能应该测量像素值之间的差异,因为强度和色彩平衡可能会因扫描而异,等等……但是,我认为这不需要很多时间想出一些对你的工作有用的东西。
HTH!