CIRAWFilter() 中的曝光如何工作

问题描述 投票:0回答:1

我正在开发一个用于处理照片和视频的应用程序。处理原始照片时,我使用 CIRAWFilter(),包括内置的曝光值。处理视频时,CIExposureAdjust 滤镜用于控制曝光。但应用这些滤镜后的视觉效果却截然不同。

CIRAWFilter() 中的曝光更加准确,尤其是在图像的明亮部分,有时可以很好地恢复强烈过度曝光的区域,而使用 CIExposureAdjust 时不会发生这种情况。

客户在处理视频时确实想要同样的效果,但我无法以任何方式解决这个难题。我知道这种差异在某种程度上与原始照片有关,但我不明白如何。我已经尝试过使用 YCbCr 和 CIELab 颜色模型来控制曝光的方法,但还没有取得任何结果。

如果有任何帮助,我将不胜感激。即使是一个提示也能让我走上正确的道路。

swift core-image
1个回答
0
投票

我具体不了解

CIRAWFilter
,但我可以告诉你,数码相机的原始图像通常比相机输出的成品图像包含更多信息,包括更大的动态范围。将原始图像转换为 TIFF 甚至具有破坏性,将其转换为每通道 8 位图像会丢弃相当多的数据。

CIRAWFilter
很可能能够使用这些额外信息来执行诸如从深层阴影或看似过度曝光的区域恢复细节等操作。 (请注意,如果过度曝光区域在一个或多个颜色通道中完全“爆裂”,则会出现不可恢复的数据丢失。)

视频不会包含原始相机图像中的额外信息,因此

CIExposureAdjust
滤镜需要处理的数据较少。你想做的事情很可能是不可能的。

(为每一帧保存完整的相机原始图像超出了大多数/所有数码相机的数据吞吐量,并且会产生非常巨大的视频文件。即使是高质量的视频也会被严重压缩。)

© www.soinside.com 2019 - 2024. All rights reserved.