同时在两个视图上显示AVPlayer内容

问题描述 投票:7回答:3

我正在为Mac创建一个HTTP Live Streaming Client,它将控制大屏幕上的视频播放。我的目标是在主屏幕上显示控制UI,在辅助屏幕上显示全屏视频。

使用AVFoundation,我已经成功地从我的控制UI打开流并控制它的所有方面,我现在正试图在辅助屏幕上复制视频。事实证明这比我想象的更难......

在控制屏幕上,我有一个AVPlayerLayer,它显示来自AVPlayer的视频内容。我的目标是创建另一个AVPlayerLayer,并将其发送到同一个播放器,以便两个播放器在两个不同的视图中同时播放相同的视频。但是,这是行不通的。

深入挖掘,我在AVFoundation文档中发现了这一点:

您可以使用相同的AVPlayer对象创建任意数量的播放器图层。只有最近创建的播放器层才能在屏幕上实际显示视频内容。

这对我来说实际上是无用的,因为我需要在两个视图中正确显示视频。

我可以从相同的AVAsset创建一个新的AVPlayerItem实例,然后创建一个新的AVPlayer并将其添加到新的AVPlayerLayer并显示视频,但它们不再同步,因为它们是两个不同的播放器,生成两个不同的音频流播放同一个流的不同部分。

有没有人对如何将相同的AVPlayer内容分成两个不同的视图有任何建议?也许某种CALayer镜像技巧?

calayer avfoundation nsview avplayer http-live-streaming
3个回答
3
投票

AVSyncronizedLayer可能有所帮助。我使用它的方式不同(同步两个不同的媒体对象而不是同一个)但原则上应该可以加载相同的项目两次,然后使用AvSyncronized图层来保持它们同步。


1
投票

我看到这个话题已经很老了,但我认为它仍然会有所帮助。你写的那个

我有一个AVPlayerLayer,它显示AVPlayer的视频内容。我的目标是创建另一个AVPlayerLayer,并将其发送到同一个播放器,以便两个播放器在两个不同的视图中同时播放相同的视频。但是,这是行不通的。

但是,它正在发挥作用。我只是在我的项目中尝试过。这是我的图层初始化代码:

AVPlayerLayer *playerLayer = [AVPlayerLayer new];
    [playerLayer setPlayer:_testPlayer];

    playerLayer.frame = CGRectMake(0, 0, _videoView.frame.size.width, _videoView.frame.size.height);
    playerLayer.contentsGravity = kCAGravityResizeAspect;
    playerLayer.videoGravity = AVLayerVideoGravityResizeAspect;

    _defaultTransform = playerLayer.affineTransform;

    [_videoView.layer insertSublayer:playerLayer atIndex:0];

    AVPlayerLayer *testLayer_1 = [AVPlayerLayer playerLayerWithPlayer:_testPlayer];
    testLayer_1.frame = CGRectMake(100, 100, 200, 200);
    testLayer_1.contentsGravity = kCAGravityResizeAspect;
    testLayer_1.videoGravity = AVLayerVideoGravityResizeAspect;

    [_videoView.layer insertSublayer:testLayer_1 atIndex:1];

这就是我得到的:

enter image description here

正如您所看到的,有两个AVPlayerLayers在非常完美的同步中播放相同的AVPlayerItem


0
投票

Apple的文档现在声明:

您可以使用相同的AVPlayer对象创建任意数量的播放器图层,但应限制创建的图层数以避免影响播放性能。

link to docs

这确实也适用于我的应用程序。

© www.soinside.com 2019 - 2024. All rights reserved.