对于测试,我正在考虑使用WebSocket将流推送到客户端,视频编码为Fragmented MP4。然后客户端使用(MediaSource)MSE和(MediaStream)WebRTC以及HTML5 <video>标签解码流ASAP。这只是一个测试,对于真实用例,我的目标是实时直播。
MediaSource
MediaStream
<video>
有没有办法让我逐帧测量帧?即,解码器解码帧需要多长时间,渲染器渲染帧?或者我如何获得实时FPS呢?