AVAssetExportSession导出速度太慢

问题描述 投票:5回答:2

我正在尝试使用AVMutableComposition导出AVAssetExportSession

AVAssetExportSession *exporter = [[AVAssetExportSession alloc] initWithAsset:mutableComposition presetName:AVAssetExportPresetHighestQuality];
    exporter.outputURL=url;
    exporter.outputFileType = AVFileTypeQuickTimeMovie;
    exporter.videoComposition = mainCompositionInst;
    exporter.shouldOptimizeForNetworkUse = YES;

    [exporter exportAsynchronouslyWithCompletionHandler:^
     {
         switch (exporter.status)
         {
             case AVAssetExportSessionStatusCompleted:
             {
                 NSLog(@"Video Merge SuccessFullt");
             }
                 break;
             case AVAssetExportSessionStatusFailed:
                 NSLog(@"Failed:%@", exporter.error.description);
                 break;
             case AVAssetExportSessionStatusCancelled:
                 NSLog(@"Canceled:%@", exporter.error);
                 break;
             case AVAssetExportSessionStatusExporting:
                 NSLog(@"Exporting!");
                 break;
             case AVAssetExportSessionStatusWaiting:
                 NSLog(@"Waiting");
                 break;
             default:
                 break;
         }
     }];

但是即使导出1分钟的视频也要花费30秒左右,考虑到iPad内置的摄像头应用程序需要不到2秒的时间,这实在太多了。

此外,如果我从导出器中删除videoComposition,则时间减少到7秒,考虑到视频长度仅为1分钟,这仍然很糟糕。因此,我想知道如何将导出时间减少到最少?

另外,我想知道,AVAssetExportSession通常需要这么多时间还是只是我的情况?

更新:合并代码:

[AVMutableComposition * mutableComposition = [AVMutableComposition组成];

AVMutableCompositionTrack *videoCompositionTrack = [mutableComposition addMutableTrackWithMediaType:AVMediaTypeVideo
                                                                                   preferredTrackID:kCMPersistentTrackID_Invalid];

AVMutableCompositionTrack *audioCompositionTrack = [mutableComposition addMutableTrackWithMediaType:AVMediaTypeAudio
                                                                                   preferredTrackID:kCMPersistentTrackID_Invalid];
AVMutableVideoCompositionLayerInstruction *videoTrackLayerInstruction = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:videoCompositionTrack];


NSMutableArray *instructions = [NSMutableArray new];
CGSize size = CGSizeZero;

CMTime time = kCMTimeZero;
for (AVURLAsset *asset in assets)
{
    AVAssetTrack *assetTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
    AVAssetTrack *audioAssetTrack = [asset tracksWithMediaType:AVMediaTypeAudio].firstObject;



    NSError *error;
    [videoCompositionTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, assetTrack.timeRange.duration )
                                       ofTrack:assetTrack
                                        atTime:time
                                         error:&error];

    [videoTrackLayerInstruction setTransform:assetTrack.preferredTransform atTime:time];

    if (error) {
        NSLog(@"asset url :: %@",assetTrack.asset);
        NSLog(@"Error1 - %@", error.debugDescription);
    }

    [audioCompositionTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, audioAssetTrack.timeRange.duration)
                                       ofTrack:audioAssetTrack
                                        atTime:time
                                         error:&error];
    if (error) {
        NSLog(@"Error2 - %@", error.debugDescription);
    }

    time = CMTimeAdd(time, assetTrack.timeRange.duration);

    if (CGSizeEqualToSize(size, CGSizeZero)) {
        size = assetTrack.naturalSize;
    }
}

AVMutableVideoCompositionInstruction *mainInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction];
mainInstruction.timeRange = CMTimeRangeMake(kCMTimeZero, time);
mainInstruction.layerInstructions = [NSArray arrayWithObject:videoTrackLayerInstruction];
AVMutableVideoComposition *mainCompositionInst = [AVMutableVideoComposition videoComposition];
mainCompositionInst.instructions = [NSArray arrayWithObject:mainInstruction];
mainCompositionInst.frameDuration = CMTimeMake(1, 30);
mainCompositionInst.renderSize = size;
ios objective-c video avfoundation avassetexportsession
2个回答
1
投票

我构建了一个将不同视频片段合并在一起的应用程序,可以肯定地说这是您的情况。我的视频文件只有10 mb,因此也许它们会更小一些,但是即使有10、20个片段,也可以花不到一秒钟的时间将它们全部合并在一起。]

现在它实际上正在发生,我已经根据您的配置检查了我的配置,区别如下:

  • 我使用export.outputFileType = AVFileTypeMPEG4
  • 我已禁用网络优化,并且如果您不打算从设备中流式传输视频,也应该将其禁用
  • 除此之外,它应该是相同的,我无法真正比​​较它,因为您将不得不提供有关如何实际创建合成的代码。不过,有些事情需要检查:

  • 如果创建AVURLAssetPreferPreciseDurationAndTimingKey时使用的是AVURLAsset,并且没有足够的关键帧,则实际上可能需要花费一些时间来寻找关键点,因此会降低速度]]
  • 考虑是否真的需要视频的最高质量
  • 考虑视频的分辨率并可能将其降低
  • 如果您提供更多信息,我应该能够为您提供更多帮助,但是其中一些功能可能会起作用。尝试一下,然后报告。

    希望它会有所帮助!

编辑1:我忘了提一下,如果您没有选择权,则应尝试使用FFmpeg库,因为它具有很高的性能,尽管由于许可而可能不适合您。

我认为这里的问题是AVAssetExportPresetHighestQuality,这将导致转换或上采样,并且会使速度降低。尝试改用AVAssetExportPresetPassthrough。我的导出时间从〜35 +秒降低到不到一秒

我也禁用了网络使用的优化功能,因为我们所有的视频都只在应用内使用,并且从未通过网络流式传输或传递]


0
投票

我认为这里的问题是AVAssetExportPresetHighestQuality,这将导致转换或上采样,并且会使速度降低。尝试改用AVAssetExportPresetPassthrough。我的导出时间从〜35 +秒降低到不到一秒

© www.soinside.com 2019 - 2024. All rights reserved.