createCGImage(_:from :)没有使用正确的rect

问题描述 投票:0回答:3

我试图模糊图像的一部分:

extension UIImage {
    func blur(rect: CGRect, radius: CGFloat) -> UIImage? {
        let context = CIContext(options: nil)
        let inputImage = CIImage(cgImage: self.cgImage!)
        let filter = CIFilter(name: "CIGaussianBlur")
        filter?.setValue(inputImage, forKey: kCIInputImageKey)
        filter?.setValue(radius, forKey: kCIInputRadiusKey)
        let outputImage = filter?.outputImage
        if let outputImage = outputImage {
            let cgImage = context.createCGImage(outputImage, from: rect)
            if let cgImage = cgImage {
                return UIImage(cgImage: cgImage)
            }
        }
        return nil
    }
}

用法:

guard let blurredImage = self.imageView.image?.blur(rect: self.blur.frame, radius: 2.0) else { fatalError("could not blur image") }
let img = UIImageView(image: blurredImage)
img.frame = self.blur.frame
self.view.addSubview(img)

但是,当应用程序启动时,图片的错误部分会模糊不清。下面是图像;底部的矩形应该模糊背后的图像,但它会模糊其他部分。

image

ios swift uiimage core-image
3个回答
1
投票

看起来你走在正确的轨道上。需要完成一些事情......

可以通过将屏幕比例传递到您的方法并更新rect的原点和大小来调整比例

由于CoreGraphics和UIKit坐标系之间的转换,模糊部分的定位已关闭。为了解决这个问题,您只需要通过想要模糊的矩形的位置和高度减去窗口的高度(考虑到比例)

请查看以下代码:

extension UIImage {
    func blur(rect: CGRect, radius: CGFloat, scale: CGFloat) -> UIImage? {

        if let cgImage = self.cgImage {
            let inputImage = CIImage(cgImage: cgImage)
            let context = CIContext(options: nil)
            let filter = CIFilter(name: "CIGaussianBlur")
            filter?.setValue(inputImage, forKey: kCIInputImageKey)
            filter?.setValue(radius, forKey: kCIInputRadiusKey)

            // Rect bounds need to be adjusted for based on Image's Scale and Container's Scale
            // Y Position Needs to be Inverted because of UIKit <-> CoreGraphics Coordinate Systems

            let newRect = CGRect(
                x: rect.minX * scale,
                y: ((((CGFloat(cgImage.height) / scale)) - rect.minY - rect.height) * scale),
                width: rect.width * scale,
                height: rect.height * scale
            )


            if let outputImage = filter?.outputImage,
                let cgImage = context.createCGImage(outputImage, from: newRect) {
                return UIImage(
                    cgImage: cgImage,
                    scale: scale,
                    orientation: imageOrientation
                )
            }
        }
        return nil
    }
}

let blurredImage = self.imageView.image?.blur(rect: self.blur.frame, radius: 2.0, scale: UIScreen.main.scale)

1
投票

您是否注意到您的插图图像看起来不仅模糊,而且放大了?那应该是一个提示......

UIKit视图,框架和图像大小都在“点”中,这是一个用于进行布局的与显示分辨率无关的单元。即使iPhone X有更多像素,您的iPhone X显示屏也具有与iPhone 6/7/8显示屏相同的宽度。 (也就是说,它们的比例因子不同:iPhone 6/7/8是2倍,iPhone X是3倍。)

CGImageCIImage测量像素,而不是点,因此在使用UIKit的视图尺寸时需要考虑屏幕的比例因子。由于您要从整个视图创建待模糊图像,然后仅渲染模糊图像的一部分,因此处理比例因子的位置将在您的createCGImage(_:from:)调用中 - 只需乘以原点和大小整个视图的contentScaleFactor你的矩形。

此外,请注意,您不一定需要通过CGImageUIImageCIImage并返回 - 您可以将外部图像视图的图像传递给CIImage(image:),并将过滤器的结果传递给UIImage(ciImage:)。在这种情况下,UIKit和CoreImage会为您管理渲染上下文,并且可能确保更好的性能(例如,通过将整个管道保留在GPU上)。但是由于您使用渲染调用来指定裁剪矩形,因此您需要在其他地方执行此操作 - 例如,CIImage cropped(to:)调用。


0
投票

问题是在viewDidLoad中添加任何叠加层都没有给出正确的框架大小添加它在侧面viewDidAppear

© www.soinside.com 2019 - 2024. All rights reserved.