将音频流传输到多个Web浏览器

问题描述 投票:0回答:1

我正在尝试在Linux服务器上播放一些音频并将其流式传输到多个Internet浏览器。我有一个回送设备,我将其指定为ffmpeg的输入。 ffmpeg然后通过rtp流到WebRTC服务器(Janus)。它可以工作,但是发出的声音太可怕了。

这是我用来通过rtp从ffmpeg流到janus的命令:

nice --20 sudo ffmpeg -re -f alsa -i hw:Loopback,1,0 -c:a libopus -ac
1 -b:a 64K -ar 8000 -vn -rtbufsize 250M -f rtp rtp://127.0.0.1:17666

WebRTC服务器(Janus)要求音频编解码器为opus。如果我尝试做2声道音频或提高采样率,则流变慢或听起来更糟。 “ nice”命令是赋予该进程更高的优先级。

ffmpeg webrtc rtp janus
1个回答
0
投票

使用gstreamer代替ffmpeg听起来不错!

这是我在CentOS 7上使用的cmd:

sudo gst-launch-1.0 alsasrc device=hw:Loopback,1,0 ! rawaudioparse ! audioconvert ! audioresample ! opusenc ! rtpopuspay ! udpsink host=127.0.0.1 port=14365
© www.soinside.com 2019 - 2024. All rights reserved.